Dokument Frontier AI Framework wyznacza dwie kategorie systemów AI: systemy wysokiego ryzyka oraz systemy krytycznego ryzyka. Oba typy mogą znaleźć zastosowanie w dziedzinach takich jak cyberbezpieczeństwo czy ataki chemiczne i biologiczne. Różnica polega na stopniu zagrożenia – zgodnie z definicją Mety, systemy krytycznego ryzyka mogą doprowadzić do katastrofalnych skutków, które trudno byłoby opanować, podczas gdy systemy wysokiego ryzyka mogą ułatwić przeprowadzenie ataku, choć nie gwarantują jego pełnej skuteczności.
Czytaj także: Meta luzuje zasady moderacji treści. Mniej cenzury i więcej wolności słowa?
Meta rozważa wstrzymanie rozwoju niektórych systemów AI
Przykłady potencjalnych ataków obejmują „zautomatyzowaną, kompleksową kompromitację najlepiej chronionego środowiska korporacyjnego” czy „rozprzestrzenianie się broni biologicznej o dużej sile rażenia”. Firma podkreśla, że lista scenariuszy zawartych w dokumencie Mety nie jest wyczerpująca, ale zawiera najpilniejsze zagrożenia wynikające z niekontrolowanego wdrożenia potężnych systemów sztucznej inteligencji.
Nieco zaskakujące jest podejście Mety do oceny ryzyka. Zamiast polegać na jednolitym, empirycznym teście, firma korzysta z opinii zarówno wewnętrznych, jak i zewnętrznych badaczy. Ich wnioski są następnie poddawane przeglądowi przez „decydentów wyższego szczebla”. Meta argumentuje, że współczesna nauka o ocenie ryzyka nie jest jeszcze na tyle zaawansowana, aby dostarczyć jednoznacznych wskaźników ilościowych.
Jeśli system zostanie sklasyfikowany jako wysokiego ryzyka, Meta planuje ograniczyć dostęp do niego wewnętrznie oraz nie udostępniać go publicznie, dopóki nie zostaną wdrożone odpowiednie środki łagodzące. W przypadku systemów uznanych za krytyczne, firma zamierza zastosować specjalne zabezpieczenia mające na celu zapobieganie nieautoryzowanemu dostępowi oraz dalszemu rozwojowi systemu.
Czytaj także: Zakazane praktyki w AI Act. Unijne regulacje już obowiązują
Frontier AI Framework według firmy będzie ewoluował wraz ze zmieniającym się krajobrazem technologii sztucznej inteligencji. Dokument ma być odpowiedzią na krytykę ekspertów w związku z tym, że Meta przyjęła strategię otwartego udostępniania swojej technologii sztucznej inteligencji, co przyniosło firmie zarówno sukcesy, jak i nieprzewidziane konsekwencje. Przykładowo, rodzina modeli sztucznej inteligencji Llama została pobrana przez odbiorców setki milionów razy, ale jednocześnie technologia ta została między innymi wykorzystana do opracowania chatbota obronnego przez jednego z przeciwników militarnych USA.
Zdjęcie główne: Flickr