W całym konflikcie chodzi o zasady dotyczące wykorzystania technologii AI w działaniach militarnych. Anthropic twierdzi, że wprowadzone przez rząd restrykcje są bezprawne i domaga się ich cofnięcia oraz zablokowania możliwości ich egzekwowania przez władze federalne. O sprawie pisze Reuters.
Wojsko chce wykorzystywać sztuczną inteligencję
Według informacji z mediów napięcia między firmą a Pentagonem narastały od kilku tygodni podczas negocjacji dotyczących wykorzystania modeli sztucznej inteligencji w projektach wojskowych. Anthropic domagał się gwarancji, że jego systemy nie będą wykorzystywane do tworzenia autonomicznego uzbrojenia ani do masowej inwigilacji obywateli. Spółka odmówiła również usunięcia zabezpieczeń, które ograniczają takie zastosowania technologii. To właśnie ta decyzja miała doprowadzić do ostrego konfliktu z resortem obrony.
Pentagon argumentuje natomiast, że prywatne firmy nie mogą narzucać armii ograniczeń dotyczących wykorzystania technologii w działaniach wojskowych. Według przedstawicieli administracji o sposobie użycia sztucznej inteligencji powinny decydować prawo i instytucje państwowe, a nie regulaminy przedsiębiorstw.
Decyzja Pentagonu jest wyjątkowa – podobna klasyfikacja była dotąd stosowana głównie wobec firm z państw uznawanych za przeciwników Stanów Zjednoczonych, takich jak Chiny czy Rosja. Dla Anthropic może mieć ona poważne konsekwencje biznesowe. W pozwie spółka argumentuje, że działania rządu mogą doprowadzić do wielomiliardowych strat oraz podważają jej reputację w branży technologicznej.
Anthropic jest twórcą modelu sztucznej inteligencji Claude, który należy do najbardziej zaawansowanych systemów generatywnej AI rozwijanych w Stanach Zjednoczonych. Według doniesień medialnych technologia ta była wykorzystywana w różnych projektach wojskowych i analizach operacyjnych. Firma podkreśla jednak, że obecne modele sztucznej inteligencji nie są wystarczająco niezawodne, by stanowić element autonomicznych systemów uzbrojenia. Zdaniem przedstawicieli spółki ich użycie w takich działaniach mogłoby być niebezpieczne.
Współpraca z Pentagonem skomplikowała także sytuację OpenAI, czyli twórcy ChataGPT. Z danych firm analitycznych wynika, że w ciągu jednej doby liczba dezinstalacji aplikacji ChatGPT w Stanach Zjednoczonych wzrosła o 295 procent. Beneficjentem okazał się właśnie Anthropic i jego model Claude – po raz pierwszy wyprzedził on ChatGPT pod względem liczby pobrań w USA. Aplikacja wskoczyła również na pierwsze miejsce w amerykańskim App Store i utrzymywała tę pozycję przez kolejne dni. Wygląda na to, że opór względem amerykańskiego Departamentu Obrony może się opłacać.