zamieszki przez dezinformację

#268

  • Ofcom, brytyjski regulator kontrolujący i nadzorujący rynek mediów i telekomunikacji ostrzega platformy społecznościowe przed rozprzestrzenianiem treści, które mogą podsycać przemoc w związku z zamieszkami skrajnej prawicy w kraju

  • Platformy, takie jak Telegram i X, nie zareagowały wystarczająco szybko na dezinformację, która doprowadziła do zamieszek (szerzyły błędne informacje, że to imigrant zabił 3 dziewczynki w szkle tańca)

  • Ofcom wzywa do natychmiastowego działania, mimo że pełne uprawnienia otrzyma dopiero wraz z wejściem w życie Ustawy o Bezpieczeństwie Online pod koniec 2024 roku

Skutki bezczynności platform społecznościowych to nie tylko zamieszki, ale też bezkarność osób szerzących nienawiść. Technologiczni giganci muszą zrozumieć, że ich wolność kończy się tam, gdzie zaczyna się przemoc.

  • Prezydent Wenezueli, Nicolás Maduro, zakazał na 10 dni dostępu do platformy X w kraju

  • Decyzja ta jest reakcją na spór z Elonem Muskiem, który publicznie krytykował Maduro

  • Wenezuelskie władze ogłosiły Maduro zwycięzcą kontrowersyjnych wyborów prezydenckich z wynikiem 51% głosów

  • Opozycja twierdzi, że to ona wygrała, zdobywając 7 milionów głosów w porównaniu do 3,3 miliona głosów dla Maduro

  • Protesty przeciwko Maduro, w których do dziś zginęły 23 osoby, rozprzestrzeniły się w całym kraju

  • USA, Argentyna i Chile nie uznają zwycięstwa Maduro

Maduro zakazując X na 10 dni, pokazuje, jak bardzo obawia się wolnego słowa. To desperacka próba uciszenia opozycji, ale czy na dłuższą metę jest w stanie pozostać w urzędzie?

  • OpenAI wprowadza głosowy interfejs ChatGPT, który imituje ludzką mowę.

  • Firma ostrzega, że nowy interfejs może sprawić, że użytkownicy emocjonalnie uzależnią się od chatbota.

  • OpenAI stara się łagodzić te ryzyka, ale krytycy uważają, że może zrobić więcej.

  • Niektórzy eksperci chwalą OpenAI za przejrzystość, inni wskazują na niedostatki w raporcie.

I tutaj pojawiają się pytania o etykę i konsekwencje tworzenia maszyn, które zbyt bardzo przypominają ludzi. Czy chcemy, aby AI były naszymi prawdziwymi przyjaciółmi?