Sztuczna inteligencja zmienia oblicze mediów społecznościowych
Adam Mosseri, szef Instagrama, ostrzega przed łatwym uleganiem fałszywym informacjom i obrazom generowanym przez sztuczną inteligencję. W serii wpisów na platformie Threads przypomina użytkownikom, by zwracali uwagę na źródło treści, zanim w nie uwierzą. „AI wyraźnie produkuje treści, które łatwo pomylić z rzeczywistością” – pisze Mosseri, podkreślając, że rolą platform internetowych jest oznaczanie treści generowanych przez AI, choć przyznaje, że nie zawsze będzie to w pełni skuteczne.
Mosseri zaznacza, że same oznaczenia nie wystarczą. Platformy społecznościowe powinny dostarczać więcej kontekstu na temat autorów treści, by użytkownicy mogli ocenić, na ile są one wiarygodne.
Meta i wyzwania związane z transparentnością
Obecnie platformy Meta, w tym Instagram i Facebook, nie oferują zaawansowanych narzędzi umożliwiających sprawdzenie wiarygodności treści, o których wspomina Mosseri. Choć firma niedawno sugerowała możliwe zmiany w zasadach moderacji, na razie brakuje konkretnych rozwiązań w tym zakresie.
Pomysły Mosseriego przywodzą na myśl mechanizmy moderacji znane z innych platform, takich jak Community Notes na X czy filtry moderacji na Bluesky. Chociaż Meta nie potwierdziła planów wdrożenia podobnych narzędzi, w przeszłości zdarzało się jej inspirować funkcjami konkurencyjnych platform.
Jak użytkownicy mogą chronić się przed dezinformacją?
Mosseri przypomina, że odpowiedzialność za weryfikację treści spoczywa również na użytkownikach. W erze rozwoju AI warto zwracać uwagę na to, czy treści pochodzą z wiarygodnych źródeł. To podobna zasada jak w przypadku korzystania z chatbotów – należy pamiętać, że sztuczna inteligencja może generować fałszywe, choć przekonujące informacje.
Dostarczenie większej ilości kontekstu przez platformy społecznościowe mogłoby ułatwić użytkownikom ocenę wiarygodności treści. Jednak na razie to od nich samych zależy krytyczne podejście do tego, co widzą w sieci.
Sztuczna inteligencja stawia przed platformami społecznościowymi nowe wyzwania, a Adam Mosseri wzywa do zwiększenia transparentności i oznaczania treści generowanych przez AI. Czy Meta wprowadzi zmiany, które pomogą użytkownikom lepiej weryfikować informacje?