Irlandzka Komisja Ochrony Danych (DPC) stwierdziła, że z zadowoleniem przyjęła decyzję X o „zawieszeniu przetwarzania danych osobowych w celu szkolenia narzędzia AI 'Grok'”. DPC prowadzi nadzór nad kwestiami ochrony prywatności użytkowników, zgodnie z unijnym rozporządzeniem RODO. Ostatnio pod jej lupę trafiły właśnie działania spółki Elona Muska.

Elon Musk i X nie będą szkolić AI na Europejczykach?

„DPC z zadowoleniem przyjmuje zgodę X na zawieszenie przetwarzania danych osobowych zawartych w publicznych postach użytkowników X z UE/EOG, które X przetwarzał w okresie od 7 maja 2024 r. do 1 sierpnia 2024 r. w celu szkolenia swojego modelu sztucznej inteligencji „Grok”” – napisał regulator w komunikacie.

Na początku tego tygodnia okazało się, że DPC wszczęło postępowanie sądowe w celu uzyskania nakazu przeciwko X w związku z przetwarzaniem danych bez zgody użytkowników. Teraz regulator z zadowoleniem przyjął decyzję amerykańskiej spółki o zaprzestaniu takich praktyk. Serwis TechCrunch pisze jednak, że zobowiązanie X prawdopodobnie nie maiło formy pisemnej. Miało to być ustne oświadczenie przez irlandzkim sądem.

„Sprawa została odroczona i będzie ponownie rozpatrywana przez sądy we wrześniu”. DPC, we współpracy z innymi organami regulacyjnymi z UE/EOG, będzie nadal badać, w jakim stopniu przetwarzanie danych jest zgodne z RODO” – podało DPC w odpowiedzi na zapytanie serwisu TechCrunch.

Niemniej istotną kwestią pozostaje legalność wszelkich modeli sztucznej inteligencji wyszkolonych na nielegalnie uzyskanych danych. Obecnie nie ma jednak jasności, jak organy nadzorujące prywatność mogą interpretować prawo w tym obszarze.

Od początku sierpnia w życie wszedł unijny Akt o Sztucznej Inteligencji (AI Act). Kluczowe elementy Aktu o AI będą wprowadzane stopniowo. Co do zasady, przepisy Aktu będą obowiązywać  po upływie 24 miesięcy od jego ogłoszenia, jednak w przypadku części przepisów te terminy to kolejno 6, 12 i 36 miesięcy. Już w lutym 2025 r. mocy nabiorą przepisy zakazujące stosowania w całej Unii szczególnie niebezpiecznych systemów AI.

Z kolei OpenAI pracuje nad rozwiązaniem, które może zdemaskować na przykład studentów, którzy wykorzystali ChatGPT do napisania pracy zaliczeniowej – podaje Wall Street Journal. Firma wciąż nie podjęła jednak ostatecznej decyzji o wdrożeniu tej technologii. Powodem są wątpliwości dotyczące szerszego wpływu na przydatność ChatuGPT.