Social bot, czyli w dosłownym tłumaczeniu „społecznościowy robot“, to termin formalnie pozytywny. Narzędzie to ma też wiele sensownych zastosowań, np. w profilowanym marketingu. Jednak ten typ software’owego agenta kojarzony jest głównie z negatywną propagandą, na usługach przeróżnych cyberbatalii, których celem jest „rząd dusz“ internautów. Jak działa takie oprogramowanie i czy można się przed nim obronić?Pytanie jest istotne, bo najpóźniej od listopada 2016 r. wiemy, że boty mają wpływ na ważne decyzje polityczne. W roku, gdy w Stanach Zjednoczonych odbywały się wybory prezydenckie, znaczna część opinii była kształtowana właśnie przez programowe automaty. Badacze z Uniwersytetu Oksfordzkiego wykazali, że zarówno Hillary Clinton, jak i Donald Trump mieli podobną liczbę internetowych zwolenników (follower), którymi były boty: u obojga polityków współczynnik sięgał 30%. Tylko po pierwszej debacie telewizyjnej prezydenckich kandydatów jedna trzecia tweetów wspierających Trumpa i jedna czwarta dla Clinton były dziełem botów. Również pod debatowym hasztagiem #Brexit znaczna część opinii generowana była przez boty, w tym zawierająca tak absurdalne twierdzenia jak to, że należy opuścić Unię, bo jej członkiem jest Rosja.
Zadajmy więc pytanie: czy używanie botów jest legalne? Ogólna i krótka odpowiedź brzmi: tak. To pozytywne stwierdzenie wynika już z samej defincji bota. Etymologicznie mamy tu do czynienia z końcówką słowa „robot”, które jest powszechnie znane, zatem nie wymaga szerszego komentarza. Także dlatego, że należy do nielicznych przykładów terminów słowiańskich obecnych w światowym (angielskim) języku techniki (pochodzi od czeskiego pojęcia „robota”, spopularyzowanego dziełami Karela Čapka). Z kolei klasyfikacyjnie bot jest rodzajem software’owego agenta (softbot), a więc programu mającego cechy pokazane w tabeli.
Skrótowo ujmując różnice między agentem a społecznościowym botem, można powiedzieć, że ten pierwszy jest programem typu back-end, a drugi front-end.Geneza agenta jest bardziej techniczna, działa on raczej „w ukryciu”, np. w multiagentowej sieci urządzeń Przemysłu 4.0. Z kolei socbot koncentruje się na dialogu z człowiekiem i jest fenomenem Web 2.0, a więc internetu społecznościowego. Autonomiczne oprogramowanie jest już powszechne zarówno w zastosowaniach gospodarczych, jak i domowych, a nie ma jednoznacznego obowiązku, aby program każdorazowo podkreślał: „nie jestem robotem”.
Social bots. Test na człowieczeństwoW odróżnieniu od klasycznego testu Turinga, w teście CAPTCHA rolę sędziego przejmuje maszyna. To ona wyrokuje, czy po drugiej stronie jest człowiek, czy inna maszyna. Taki test musi być zatem odporny na próby złamania go... maszynowym algorytmem.A to oznacza, że, paradoksalnie, korzyści ze stosowania samych testów CAPTCHA mogą być mniejsze niż wiedza uzyskana podczas prób ich łamania.
A zatem program, który łamałby bez trudu test CAPTCHA, byłby jednocześnie doskonałym czytnikiem OCR lub znakomicie rozpoznawał kontekst informacji, np. w teście zdjęciowym: zaznacz tylko te pojazdy, które są ciężarówkami.
Social bots. Nowe przepisyWróćmy do kwestii obowiązkowego przedstawiania się botów. Siadając za kierownicą samochodu z nawigacją, nie usłyszymy przed każdą sentencją typu: za 200 metrów skręt w lewo, ostrzeżenia: uwaga, jestem robotem. Po prostu wiemy, że mówi do nas automat. Jeśli jednak na społecznościowym forum otrzymujemy bądź czytamy wiadomość podpisaną z reguły pseudonimem, to tego już nie wiemy. Jednocześnie serwerowy generator botów może w sekundę wysyłać ich tysiące, każdy z nich zindywidualizowany, w innym stylu, z inną treścią, z innym podpisem. A wszystkie mogą układać się wokół trendu prowadzącego do z góry założonego wyniku, np.: „nie należy się szczepić”.
Stąd istotne jest stanowisko Państwowej Komisji Wyborczej w sprawie zasad prowadzenia i finansowania kampanii wyborczej w internecie. Dokument o takim tytule i sygnaturze ZKF-811-50/18 z dn. 26.09.2018 r. znajdziemy na stronie Komisji w zakładce „Wyjaśnienia, stanowiska, komunikaty”. Czytamy w nim, że agitacja wyborcza prowadzona w internecie odgrywa coraz większą rolę w kampaniach wyborczych, stąd PKW zaleca, by boty były podpisywane przez komitety wyborcze. Komisja wskazuje też, że „materiały wyborcze powinny zawierać wyraźne oznaczenie komitetu wyborczego, od którego pochodzą” i dotyczy to również treści umieszczanych w sieci. W stanowisku znajdujemy ponadto dalsze szczegóły dotyczące fenomenu, wraz z oryginalną definicją botów jako „przekazów zwielokrotnianych na zlecenie komitetu przez osoby lub przez systemy zautomatyzowane”.
Zdaniem PKW takie boty muszą mieć oznaczenie komitetu wyborczego, a ich brak jest wykroczeniem. Pamiętajmy o tym przed kolejnymi wyborami w Polsce – parlamentarne już jesienią.