Cum ne pun în pericol pe toți videoclipurile deepfake AI
OpenAI arată o „desconsiderare nesăbuită” pentru siguranța produselor, drepturile oamenilor la propria lor asemănare și chiar stabilitatea democrației, potrivit unei scrisori scrise de organul de supraveghere Public Citizen. Platforma video Sora este folosită în mod obișnuit pentru conținut scurt de rețele sociale, creând clipuri suficient de distractive pentru a fi apreciate și distribuite. O temă populară este înregistrările false ale camerei de la sonerie, în care ceva ușor neobișnuit are loc în timp ce rămâne oarecum credibil – cum ar fi un cangur care vine la ușa cuiva sau o scenă de stradă distractivă care se desfășoară – dar software-ul ar putea deveni rapid un pericol pentru noi toți.
Public Citizen tocmai a îndemnat OpenAI să-l retragă pe Sora de la utilizarea publică, numind-o o eliberare nesăbuită care supraalimentează falsurile, furtul de identitate și dezinformarea electorală. Este la fel de rău cum se spune?
Pericolul Deepfakes
Public Citizen a scris o scrisoare către OpenAI și către Congresul SUA, cerând ca Sora să fie scoasă din offline până când vor putea fi implementate balustrade robuste și testabile. Pretenția lor este că aplicația a fost lansată iresponsabil devreme pentru a obține un avantaj competitiv fără a lua în considerare măsurile de siguranță necesare. Utilizarea neconsensuală a asemănării și înșelăciunea pe scară largă sunt riscurile cheie aici, videoclipurile sintetice răspândindu-se mai repede decât publicul le poate verifica autenticitatea.
Avocatul politicii tehnologice Public Citizen, JB Branch – care a scris scrisoarea – spune „cea mai mare preocupare a noastră este potențiala amenințare la adresa democrației. Cred că intrăm într-o lume în care oamenii nu pot avea încredere în ceea ce văd. Și începem să vedem strategii în politică în care prima imagine sau primul videoclip care este lansat este ceea ce oamenii își amintesc”.
Branch a continuat: „Ei pun pedala pe podea fără să țină cont de rău. Multe dintre acestea par previzibile. Dar ei preferă să scoată un produs acolo, să-i facă pe oameni să-l descarce, să-i atragă pe oameni dependenți de el, decât să facă ceea ce trebuie și să testeze aceste lucruri în prealabil și să-și facă griji pentru situația utilizatorilor obișnuiți”.
OpenAI a provocat sinucideri, cereri de proces
Șapte procese noi depuse săptămâna trecută în instanțele din California susțin că chatbot-ul a condus oamenii la sinucidere și la iluzii dăunătoare, chiar și atunci când nu aveau probleme anterioare de sănătate mintală. În numele a șase adulți și un adolescent, Social Media Victims Law Center și Tech Justice Law Project au intentat procese, susținând că OpenAI și-a lansat cu bună știință iterația GPT-4o prematur anul trecut, în ciuda avertismentelor interne că era periculos de adulator și manipulator psihologic. Patru dintre victime s-au sinucis.
Public Citizen nu este implicat în procese, dar face ecou preocupărilor ridicate în acestea. Branch spune că OpenAI blochează nuditatea, dar totuși „femeile se văd hărțuite online” în alte moduri. Un raport 404 Media de săptămâna trecută a constatat un val de videoclipuri făcute de Sora cu femei sugrumate.
Pentru ce sunt folosite videoclipurile Sora AI
Sora face posibil ca toată lumea să producă falsuri cinematografice, fie că sunt scene fictive ale soneriei, celebrități cu sincronizare buzelor sau mini drame fotorealiste care arată ca imagini ale martorilor oculari. Aceste clipuri sunt concepute pentru a fi amuzante, partajabile și ciudate – în cele din urmă pentru dopamină. Dar atunci când este distribuit pe platformele online, contextul dispare și mulți oameni le digeră ca și cum ar fi reale.
The Washington Post a testat teoria. Ei au încărcat un videoclip fals realizat de Sora pe opt platforme majore cu acreditări de conținut rezistente la manipulare încorporate. O singură platformă – YouTube – a identificat și a dezvăluit natura sa artificială, dar a îngropat eticheta în descriere. Dacă platformele nu pot sau nu vor transmite semnale clare despre ceea ce este real și ce este fals, atunci nu există nicio modalitate de a proteja spectatorii de conținutul înșelător.
Unde ar putea merge prost – și este deja
- Alegeri: O mână de falsuri realiste, cum ar fi împușcături de poliție fabricate, mărturisiri falsificate ale candidaților și rapoarte de politică externă falsificate, pot schimba prezența la vot și pot aprinde tulburări mult înainte ca verificările faptelor să poată fi puse în aplicare. Public Citizen avertizează asupra impactului lui Sora asupra „stabilităţii democraţiei”.
- Hărțuire și extorcare: Deepfake-urile sexuale neconsensuale, calomniile reputaționale și campaniile generale de extorcare sunt deja o problemă cu imaginile statice – videoclipurile multiplică răul
- Farse de siguranță publică: Clipurile false ale dezastrelor sau alertele de urgență se răspândesc mai repede decât corecțiile, derutând primii respondenți și publicul. Realismul uimitor al Sorei în contextul cotidian este de neegalat, iar a spune diferența este mai greu ca niciodată
- Frauda economică: videoclipurile sintetice ale directorilor executivi, personalităților publice sau influențelor de profil pot crea înșelătorii clasice ale impostorilor prin voce sau prin e-mail, împingând angajații sau persoanele private să transfere fonduri. Clonarea vocii păcălește deja băncile – imaginați-vă și puterea falsării videoclipurilor.
Ce spune OpenAI că face pentru a aborda pericolele
OpenAI a început să limiteze cameourile pentru figurile publice și a lansat controale de utilizator asupra „eu-ului AI” unde ar putea apărea un avatar personal. Pe de o parte, ei recunosc clar riscul. Dar, pe de altă parte, ele nu abordează în mod eficient întreaga problemă. Ei au spus că „supra-moderarea este super frustrantă” pentru utilizatorii noi și că este important să fii conservator „în timp ce lumea încă se adaptează la această nouă tehnologie”.
Ei au anunțat public acorduri cu familia lui Martin Luther King Jr în octombrie, prevenind „reprezentările lipsite de respect” ale liderului pentru drepturile civile, în timp ce compania lucra la garanții mai bune. De asemenea, OpenAI a anunțat același acord cu actori celebri, sindicatul SAG-AFTRA și agențiile de talente.
„Asta e bine dacă ești celebru”, a spus Branch, dar a subliniat o altă problemă. „Este un fel de tipar pe care OpenAI îl are în care sunt dispuși să răspundă la indignarea unei populații foarte mici. Sunt dispuși să lanseze ceva și să își ceară scuze după aceea. Dar multe dintre aceste probleme sunt alegeri de design pe care le pot face înainte de lansare”.
Imaginea AI mai mare
Scrisoarea Public Citizen ajunge pe fondul realizării mai mari că construim platforme care fac înșelăciunea mai ușoară ca niciodată, mai degrabă decât să creăm sisteme pentru a ne proteja împotriva acesteia. Videoclipurile Sora pot fi captivante, dar imposibil de distins la viteza de defilare și, fără etichete credibile care să evidențieze conținutul sintetic pentru utilizatori, pur și simplu permitem publicului să se obișnuiască cu conținutul fals, devenind în cele din urmă incapabil să facă diferența.
OpenAI nu a inventat deepfake-urile, iar concurenții se vor lupta pentru a le egala. Adevărata conducere ar necesita încetinirea până când șinele de siguranță sunt la locul lor, mai degrabă decât să ne mișcăm atât de repede încât să nu putem construi niciodată protecția potrivită. Între timp, câinii de pază vor continua să ceară eliminarea lui de pe domeniul public până când oamenii obișnuiți vor face distincția între realitate și ficțiune.
Gândul final
Crezi că ai putea face diferența dintre cele mai recente videoclipuri AI și realitate? Care este cel mai mare risc ca această tehnologie să fie disponibilă pentru toată lumea? Ce putem face în privința asta? Împărtășiți-vă gândurile mai jos.
Expozitia are nevoie urgent de ajutorul tau…
Vă rugăm să ajutați la menținerea luminilor aprinse cu jurnalismul onest, de încredere, puternic și sincer al The Expose?
Organizațiile dvs. guvernamentale și Big Tech
încearcă să taci și să închizi The Expose.
Deci avem nevoie de ajutorul tău pentru a ne asigura
putem continua să vă aducem
fapte pe care mainstreamul refuză.
Guvernul nu ne finanțează
să publice minciuni și propagandă asupra lor
în numele mass-media mainstream.
În schimb, ne bazăm numai pe sprijinul dumneavoastră. Aşa
vă rugăm să ne sprijiniți în eforturile noastre de a aduce
tu jurnalism onest, de încredere, de investigație
astăzi. Este sigur, rapid și ușor.
Vă rugăm să alegeți metoda preferată de mai jos pentru a vă arăta sprijinul.