Zamiast żądać usunięcia treści za wprowadzanie w błąd, jak w przypadku deepfake, YouTube chce, aby zainteresowane strony żądały usunięcia treści bezpośrednio jako naruszenia prywatności. YouTube wymaga, aby to roszczenie było złożone przez samego zainteresowanego poza kilkoma wyjątkami, takimi jak sytuacja, gdy dana osoba jest niepełnoletnia, nie ma dostępu do komputera, nie żyje, lub występują inne tego typu wyjątki. O sprawie pisze serwis TechCrunch.
YouTube bierze się za sztuczną inteligencję
Samo złożenie wniosku nie musi jednak oznaczać, że treść zostanie usunięta. YouTube ostrzega, że dokona własnej oceny skargi na podstawie różnych czynników. Jeśli treść będzie oznaczona, jako wykonana przy użyciu AI, czy będzie ją można uznać za parodię, satyrę lub coś innego wartościowego i leżącego w interesie publicznym, wtedy YouTube może odmówić usunięcia takiego materiału.
YouTube da również twórcy treści 48 godzin na podjęcie działań w związku ze skargą. Jeśli treść zostanie usunięta przed upływem tego czasu, skarga zostanie zamknięta. W przeciwnym razie YouTube zacznie analizować sprawę. Użytkownicy mogą również zamazać twarze osób w swoich filmach, ale nie mogą po prostu uczynić filmu prywatnym – to nie będzie równoznaczne z zakończeniem sporu. W końcu film może zostać przywrócony do statusu publicznego w dowolnym momencie.
Ostatnio za temat sztucznej inteligencji wzięła się również Meta – w pierwszej połowie czerwca firma wysłała swoim europejskim użytkownikom tajemniczego maila z zapytaniem, czy mają coś przeciwko, żeby za pomocą ich danych “trenować” Meta AI. Posypały się skargi, a koncern Zuckerberga na razie wycofał się ze swoich planów.