Meta poszukuje współpracowników, którzy mogą dostarczyć ponad 10 godzin nagrań mowy z transkrypcjami, duże zasoby tekstu pisanego oraz zestawy przetłumaczonych zdań w różnych językach. Współpraca z zespołami Meta AI pozwoli na integrację tych języków z modelami rozpoznawania mowy i tłumaczenia, które po ukończeniu będą dostępne publicznie. Jednym z pierwszych partnerów programu jest rząd Nunavut, słabo zaludnionego terytorium w północnej Kanadzie. Większość mieszkańców Nunavut posługuje się językami inuickimi.

Współpraca Mety i UNESCO w sprawie sztucznej inteligencji

„Nasze wysiłki koncentrują się w szczególności na niedocenianych językach, wspierając pracę UNESCO” – napisano w oficjalnym komunikacie firmy. „Ostatecznie naszym celem jest stworzenie systemów sztucznej inteligencji, które będą w stanie zrozumieć i odpowiedzieć na złożone ludzkie potrzeby, niezależnie od języka czy pochodzenia kulturowego” – dodaje Meta.

Oprócz Language Technology Partner Program, Meta ogłosiła publikację otwartego testu porównawczego do oceny wydajności modeli tłumaczenia maszynowego. Test ten, opracowany przez lingwistów, obsługuje siedem języków i jest dostępny na platformie Hugging Face.

Meta rozwija także swojego asystenta opartego na sztucznej inteligencji, Meta AI, oraz testuje nowe funkcje, takie jak automatyczne tłumaczenie dla twórców internetowych. W ubiegłym roku firma ogłosiła wydanie narzędzia do tłumaczenia głosu w Instagram Reels, umożliwiającego dubbingowanie wypowiedzi i automatyczną synchronizację głosu.

Działania Meta w obszarze tłumaczenia i moderacji treści w językach innych niż angielski spotkały się jednak z krytyką. Raporty wskazują, że Facebook nie oznaczał prawie 70% dezinformujących treści dotyczących COVID-19 w językach włoskim i hiszpańskim, podczas gdy w przypadku języka angielskiego liczba ta wynosiła jedynie 29%. Dodatkowo, ujawnione dokumenty sugerują, że posty w języku arabskim są często błędnie klasyfikowane jako mowa nienawiści. Firma oświadczyła jednak, że podejmuje kroki w celu ulepszenia swoich technologii tłumaczenia i moderacji.

Parę dni temu pisaliśmy, że Meta chce ograniczyć rozwój niebezpiecznej sztucznej inteligencji. Dokument Frontier AI Framework wyznacza dwie kategorie systemów AI: systemy wysokiego ryzyka oraz systemy krytycznego ryzyka. Oba typy mogą znaleźć zastosowanie w dziedzinach takich jak cyberbezpieczeństwo czy ataki chemiczne i biologiczne.