Powodem kontrowersji stała się aktualizacja między innymi polityki prywatności LinkedIn. Zmiany mają wejść w życie 20 listopada. LinkedIn przyznał, że w przeszłości wykorzystywał dane użytkowników do szkolenia swoich modeli AI bez ich zgody. Mimo, że teraz użytkownicy mogą zrezygnować z dalszego wykorzystywania ich danych do trenowania sztucznej inteligencji, to firma nie oferuje możliwości cofnięcia dotychczasowych działań.
Użytkownicy LinkedIna trenują sztuczną inteligencję
LinkedIn, należący do Microsoftu, twierdzi, że dane użytkowników z Europejskiego Obszaru Gospodarczego, Szwajcarii i Wielkiej Brytanii nie będą wykorzystywane w procesie szkolenia sztucznej inteligencji. To rozróżnienie geograficzne wyraźnie pokazuje różnice między bardziej rygorystycznymi unijnymi przepisami o ochronie danych, a mniej uregulowanym rynkiem USA.
Debata wokół wykorzystania danych do szkolenia sztucznej inteligencji staje się coraz bardziej złożona, w miarę jak rośnie rozpowszechnienie tych systemów. Modele takie jak GPT-4 od OpenAI czy Gemini od Google są trenowane na olbrzymich zbiorach danych, często bez wyraźnej zgody użytkowników. O trenowaniu sztucznej inteligencji na klientach było głośno także w kontekście Elona Muska i technologii Grok.
Problem ten nie dotyczy wyłącznie platform społecznościowych, ale obejmuje też twórczość artystyczną. Przykładem może być chociażby pozew twórców takich jak George R.R. Martin czy Sarah Silverman przeciwko OpenAI i Meta. Artyści oskarżają koncerny o bezprawne wykorzystanie ich dzieł – chronionych prawem autorskim – do szkolenia modeli AI – podaje serwis Pymnts.
Kontrowersje wzbudziły również niedawno odkryte praktyki startupu Clearview AI. Okazało się bowiem, że firma skanowała miliardy zdjęć z platform społecznościowych do trenowania swoich systemów rozpoznawania twarzy. Eksperci wskazują, że takie praktyki mogą prowadzić do naruszenia prywatności, zwłaszcza gdy wrażliwe informacje są wykorzystywane do profilowania lub śledzenia osób.