Czy w dobie wszechobecnej manipulacji i dezinformacji w social media przydałaby się nam pomoc innowacyjnych przedsiębiorstw, aby zwiększyć nasze szanse w tej nierównej walce? Pewnie, że tak. Na szczęście jest dla nas nadzieja. Nazywa się Astroscreen i właśnie uzyskała pierwszy milion na rozwój.

Social media nas zmieniły

O wpływie sieci społecznościowych na sposób, w jaki użytkownicy internetu przyswajają i rozpowszechniają informacje napisano już chyba wszystko. Nigdy jednak nie powinniśmy przestać uświadamiać nieuświadomionych, że social media nie powstały jako narzędzie w służbie budowania zrównoważonej debaty i rozprzestrzeniania samych wartościowych treści. Zupełnie nie taki jest ich model biznesowy. Główną walutę w social media stanowi viralowość, a to oznacza, że najpopularniejsze treści podatne są na wykrzywiające rzeczywistość manipulacje dokonywane dla zysku ekonomicznego czy wizerunkowego.

Nierówna walka

Sposobów na oszukanie nas w social media są tysiące, a taktyki obronne mają niestety ograniczoną liczebność i skuteczność. Ogromne liczby fałszywych kont w najpopularniejszych serwisach (kompletnie zautomatyzowanych lub obsługiwanych przez odpowiednio opłacanych ludzi) w bardzo przemyślany i zorganizowany sposób mogą być używane do rozpowszechniania drobnych kontrowersji lub sfabrykowanych i wprowadzających w błąd treści, wpływając na całe rzesze zwykłych ludzi, którzy m.in. na ich podstawie podejmują wybory konsumenckie i polityczne. Na takie “czarne kampanie piarowe” bardzo podatne są marki, które mogą tracić niesamowite pieniądze tylko dlatego, że zorganizowana grupa ludzi z jakichś powodów wypisuje w internecie niepochlebne opinie na ich temat. Kto może pozwolić sobie na straty wizerunkowe przekładające się na obniżenie wartości firmy o kilkadziesiąt procent? Nie wspominając już o znacznie groźniejszych globalnie zagrożeniach, np. tych związanych z terroryzmem.

Uczenie maszynowe i nie tylko

I właśnie tutaj wchodzi Astroscreen, startup, który wykorzystuje machine learning (ale także jak najbardziej żywych speców od dezinformacji) do wykrywania niebezpiecznych manipulacji w mediach społecznościowych. Właśnie ogarnął pierwszy milion dolarów na rozwój proponowanych przez siebie rozwiązań. A składają się na nie m.in. skoordynowane wykrywanie aktywności w internecie, pobieranie tzw. “językowych odcisków palców” (czyli bardzo szczegółowe badanie stylu wypowiedzi na poszczególnych kontach w social media) oraz wykrywanie fałszywych kont i botów.

Zagadnienia związane z machine learning to nie pierwszyzna dla Aliego Tehrani, CEO Astroscreen, który wcześniej stworzył firmę zajmującą się analizą newsów przy pomocy właśnie uczenia maszynowego. Być może teraz żałuje, że sprzedał firmę w 2015, kiedy o fake newsach nie było jeszcze tak głośno, jak teraz. Niewątpliwie zyskał jednak wówczas cenne doświadczenie. – Gdy budowałem mój poprzedni startup, to widziałem z bliska, jak udostępniano stronnicze, polaryzujące artykuły i sztucznie wzmacniano ich oddziaływanie przez ogromną liczbę fałszywych kont. Dało to przedstawionym historiom wysoki poziom ekspozycji i autentyczności, których nie miałyby bez tego – tłumaczy Tehrani. W Astroscreenie jest on wspierany przez Juana Echeverrię, CTO firmy, który zdobył rozgłos w 2017 roku w wyniku wykrycia 350 tysięcy botów zarządzających kontami na Twitterze.

Nie liczmy na platformy social media

Tehrani tłumaczy, że współtworzone przez niego narzędzie jest potrzebne, ponieważ nie możemy spodziewać się, że włodarze największych serwisów społecznościowych sami rozwiążą problemy trawiące stworzone przez nich media. – Platformy social media nie mogą samodzielnie rozwiązać tego problemu, ponieważ szukają one skalowalnych rozwiązań, które mogą wprowadzić w ramach ograniczającego je software’u – twierdzi CEO Astroscreena. – Jeśli poświęciliby na to odpowiednie środki, to ich dochody przypominałyby bardziej te wydawcy gazety niż firmy technologicznej. Więc skupiają się na wykrywaniu zbiorczych anomalii: kont i zachowań, które odbiegają od normy (…)”.

Ale to nie wystarczy. Dzieło Tehraniego i Echeverii podchodzi do problemu w inny sposób. Łączy ono machine learning z możliwościami ludzkiej inteligencji, a wszystko to, aby móc wykrywać kontekstowe, a nie zbiorowe anomalie. Ponadto zachowania mogące stanowić oznaki ataków dezinformacyjnych są wykrywane na bardzo wczesnym etapie, a dotyczące ich informacje od razu są przekazywane zainteresowanym podmiotom, które mogą uratować sytuację dzięki szybkiej reakcji. Jeśli przedsiębiorcom uda się odpowiednio wyskalować swoje rozwiązanie, to właśnie te subtelne różnice mogą zadecydować o ich sukcesie.   

Źródło: techcrunch.com

Napisz coś od siebie!