Maszyny są zbyt niebezpieczne. OpenAI nie udostępni algorytmu

Rafał Tomaszewski
Rafał Tomaszewski
#Technologie
Opublikowano: 20 lutego 2019, 12:42 Aktualizacja: 2 maja 2019, 16:59

Wielka moc, to wielka odpowiedzialność. Właśnie tą maksymą kierowała się firma wspierana przez Elona Muska – OpenAI, która postanowiła nie udostępniać swojego algorytmu sztucznej inteligencji. Program okazał się zbyt dobry, a jego upublicznienie mogłoby wywołać serię nieprzewidzianych zdarzeń.

Chodzi o niezwykle zaawansowany generator tekstu GPT2, który potrafi pisać wiarygodne informacje prasowe, a także produkować i identyfikować fake newsy. Algorytm został wyszkolony na ponad 10 mln artykułów, dzięki czemu na bazie krótkiego fragmentu tekstu jest w stanie przygotować obszerny materiał, przewidując co dalej powinno się w takim tekście znaleźć. O sprawie pisał Guardian. Poniżej film pochodzący z kanału brytyjskiego serwisu na YouTubie, pokazujący w jaki sposób GPT2 tworzy treści.

Roboty zaleją nas fake newsami?

OpenAI to organizacja non profit, która zajmuje się rozwojem sztucznej inteligencji pod takim kątem, aby opracowane rozwiązania były przydatne dla zwykłych ludzi, a nie tylko dla wielkich korporacji. Firmę wspierają takie osobistości jak Elon Musk (który sam obawia się rozwoju AI), Sam Altman, czy Reid Hoffman.

Zdaniem naukowców z OpenAI algorytm GPT2 jest zbyt zaawansowany, aby można go było udostępnić do użytku publicznego. Program mógłby pisać za uczniów prace domowe, a może nawet prace magisterskie za studentów… Skutki mogą być jednak dużo poważniejsze. Algorytm można wykorzystać  na przykład od masowego produkowania fake newsów. To duży problem w skali globalnej – wystarczy przypomnieć zamieszanie z udziałem Facebooka, czy ostatnie wybory prezydenckie w USA.

Czy właśnie w ten sposób sztuczna inteligencja zagrozi człowiekowi? Nie ruszą na nas maszyny rodem z Terminatora, tylko generatory tekstu zaleją ludzi fake newsami, przez co rzucimy się sobie do gardeł… To oczywiście tak pół żartem, pół serio, ale tak zaawansowany algorytm może być sporym zagrożeniem dla kilku zawodów – na przykład pisarzy, dziennikarzy i PR-owców. Po co płacić dziennikarzom, skoro maszyna jest w stanie napisać lepszy tekst w dużo krótszym czasie? Przygotujmy się na apokalipsę.


Tekst chroniony prawem autorskim. Każdorazowe kopiowanie wymaga zgody redakcji.

Pokaż komentarze (0)

sztuczna-inteligencja-jest-zbyt-niebezpieczna-openai-nie-udostepni-nowego-algorytmu