În cea mai mare parte, AI este un gunoi scump – The Expose
Dacă a existat vreodată un caz de „gunoi înăuntru, gunoi afară”, atunci AI este. Și, în cele din urmă, totul a fost condus de obiectivul cenzurării informațiilor care nu se potrivesc narațiunii corecte din punct de vedere politic.
Să nu pierdem contactul… Guvernul dvs. și Big Tech încearcă în mod activ să cenzureze informațiile raportate de The Expune pentru a-și servi propriile nevoi. Abonați-vă acum pentru a vă asigura că primiți cele mai recente știri necenzurate în căsuța dvs. de e-mail…
De ce algoritmii și cercetările de „dezinformare” AI sunt în mare parte un gunoi scump
Povestea laptopului Hunter Biden este doar una dintre multele povești care au fost considerate de mass-media corporative (și de majoritatea cadrelor universitare) a fi „dezinformare” dar care au fost ulterior dezvăluite ca adevărate. Într-adevăr, Mark Zuckerberg a recunoscut acum că Facebook (Meta), împreună cu celelalte mari companii de tehnologie, au fost presați să cenzurare povestea dinaintea alegerilor din SUA din 2020 și, de asemenea, a fost presată ulterior de administrația Biden/Harris să cenzureze poveștile despre covid care au fost clasificate greșit drept dezinformare.
Problema este că același tip de oameni care au decis ce este și ce nu a fost dezinformare (în general oameni din stânga politică) au fost și cei care au fost finanțați pentru a produce algoritmi de inteligență artificială („AI”) pentru a „învăța”:
- care oameni erau „răspânditori de dezinformare”; şi
- ce afirmații noi au fost „dezinformare”.
Între 2016 și 2022, am participat la multe seminarii de cercetare în Marea Britanie despre utilizarea inteligenței artificiale și a învățării automate pentru a „combate dezinformarea și dezinformarea”. Din 2020, exemplul laptopului lui Hunter Biden a fost adesea folosit ca exemplu cheie de „învățare”, așa că algoritmii l-au clasificat drept „dezinformare” cu subclasificări precum „propaganda rusă” sau „teoria conspirației”.
Mai mult, fiecare prezentare la care am participat invariabil a început cu și a fost dominată de exemple de „informare greșită” despre care se spunea că se bazează pe „minciunile lui Trump”, cum ar fi cele din Washington Post au fost „30.573 de afirmații false sau înșelătoare făcute de Trump în decurs de 4 ani”. Dar multe dintre aceste presupuse afirmații false sau înșelătoare erau deja cunoscute ca fiind adevărate pentru oricine din afara Tutore/New York Times/Washington Post balon de lectură. De exemplu, ei au susținut că Trump a spus că „neonaziștii și suprematicii albi erau oameni foarte buni” și că oricine neagă promovează dezinformarea, în timp ce chiar și cei de extremă stângă. Snopes avut dezmințit în 2017. În mod similar, ei au susținut că „dovada că Biden avea demență” sau că „Bideni îi plăcea să miroasă părul fetelor tinere” a fost dezinformare în ciuda mai multor videoclipuri care arată exact asta – așa că, nu-ți crede ochilor mincinoși; într-adevăr, cu o săptămână înainte ca demența lui Biden să nu mai poată fi ascunsă în timpul spectacolului său live de dezbatere prezidențială, mass-media corporativă a fost neclintit că astfel de videoclipuri erau „trucuri ieftine” de dezinformări.
Dar academicienii care au prezentat aceste exemple politice pe Trump, Biden și alte exemple politice i-au ridiculizat pe oricine îndrăznea să pună la îndoială fiabilitatea oracolelor autoproclamate care determinau ce era și ce nu era dezinformare. La o conferință majoră care a avut loc pe Zoom, am postat în chat: „Este cineva care nu-l urăște pe Trump binevenit în această întâlnire”. Răspunsul a fost „Nu. Susținătorii lui Trump nu sunt bineveniți și dacă ești unul, ar trebui să pleci acum.” Din păcate, majoritatea cadrelor universitare nu cred în libertatea de gândire, cu atât mai puțin în libertatea de exprimare atunci când vine vorba de opinii care contestă narațiunea „progresistă” despre orice.
Pe lângă poveștile de „dezinformare” legate de Biden și Trump, care s-au dovedit a fi adevărate, au existat și mai multe exemple de povești legate de covid (cum ar fi cele care susțin rate foarte scăzute de deces și lipsa eficacității și siguranței vaccinurilor) clasificate ca fiind dezinformări care s-au dovedit a fi adevărate. În toate aceste cazuri, oricine care a promovat aceste povești a fost clasificat drept „răspânditor de dezinformare”, „teoretician a conspirației” etc. Și acest tip de ipoteze sunt cele care determină modul în care algoritmii de „dezinformare” AI care au fost dezvoltați și implementați de organizații precum Facebook și Twitter a funcționat.
Permiteți-mi să dau un exemplu simplificat. Algoritmii încep, în general, cu o bază de date de afirmații care sunt preclasificate fie ca „informații greșite” (chiar dacă multe dintre ele s-au dovedit a fi adevărate), fie „neinformații greșite” (chiar dacă multe dintre ele s-au dovedit a fi false). De exemplu, următoarele au fost clasificate drept dezinformare:
- „Hunter Biden a lăsat un laptop cu dovezi ale comportamentului său criminal într-un atelier de reparații.”
- „Vaccinurile covid pot provoca răni grave și deces.”
Reversul oricărei declarații clasificate drept „informare greșită” a fost clasificată drept „informare greșită”.
Un subset al acestor afirmații este folosit pentru a „antrena” algoritmul, iar altele pentru a „testa” algoritmul.
Deci, să presupunem că declarația laptopului este una dintre cele utilizate pentru a antrena algoritmul și declarația vaccinului este una dintre cele utilizate pentru a testa algoritmul. Apoi, deoarece declarația laptopului este clasificată drept dezinformare, algoritmul învață că persoanele care repostează sau apreciază un tweet cu declarația laptopului sunt „răspânditori de dezinformare”. Pe baza altor postări pe care le fac aceste persoane, algoritmul le-ar putea clasifica în plus ca, de exemplu, „extrema dreaptă”. Este posibil ca algoritmul să descopere că unele persoane deja clasificate drept „extrema dreaptă” sau „răspânditor de dezinformare” – sau persoane cu care sunt conectați – postează și o declarație de genul: „Vaccinurile covid pot provoca răni grave și deces”. În acest caz, algoritmul va „învăța” că această declarație este cel mai probabil dezinformare. Și, bun venit, deoarece oferă clasificarea „corectă” declarației „test”, algoritmul este „validat”.
Mai mult, atunci când i se prezintă o nouă declarație de testare, cum ar fi „Vaccinurile covid nu opresc infecția de la covid” (care a fost, de asemenea, pre-clasificată drept „informare greșită”), algoritmul va „învăța corect” că aceasta este „informare greșită”, deoarece a „învățat” deja că afirmația „Vaccinurile covid pot provoca răni grave și deces” este o dezinformare și că persoanele care au susținut ultima declarație – sau persoane legate de ei – au susținut și prima declarație.
Modul în care am subliniat modul în care procesul AI este proiectat pentru a detecta „dezinformarea” este, de asemenea, modul în care „experții de dezinformări de vârf” au creat experimentul lor să „profileze” „tipul de personalitate” care este susceptibil de dezinformare. Acum se obișnuiesc aceleași metode profil și monitor oameni despre care „experții” academicieni susțin că sunt „de extremă dreapta” sau rasiști.
Prin urmare, o cantitate enormă de cercetare a fost (și este încă) cheltuită pentru dezvoltarea de algoritmi „inteligenti” care pur și simplu cenzurează adevărul online sau promovează minciunile. O mare parte din finanțarea acestei cercetări este justificată pe motiv că „dezinformarea” este acum una dintre cele mai mari amenințări la adresa securității internaționale. Într-adevăr, în ianuarie 2024 Forumul Economic Mondial declarat că „dezinformarea și dezinformarea au fost cele mai mari riscuri globale pe termen scurt”. De asemenea, președintele Comisiei Europene, Ursula von der Leyen declarat că „dezinformarea și dezinformarea sunt amenințări mai mari pentru comunitatea globală de afaceri decât războiul și schimbările climatice”. Numai în Marea Britanie, guvernul a oferit multe sute de milioane de lire sterline de finanțare numeroaselor laboratoare de cercetare universitare care lucrează la dezinformare. În martie 2024, doar Institutul Turing, care are mai multe echipe dedicate care lucrează în acest domeniu și în domenii strâns legate, a fost premiat 100 de milioane de lire sterline de finanțare suplimentară guvernamentală – a primit deja aproximativ 700 de milioane de lire sterline de la înființarea sa în 2015. În mod oarecum ironic, Registrul național de risc al guvernului britanic HM 2023 include ca risc cronic:
„Inteligenta artificiala (AI). Progresele în sistemele de inteligență artificială și capacitățile acestora au o serie de implicații, cuprinzând riscuri cronice și acute; de exemplu, ar putea cauza o creștere a dezinformării și a dezinformarii dăunătoare.”
Cu toate acestea, continuă să acorde prioritate finanțării cercetării în IA pentru a combate acest risc crescut de „dezinformare și dezinformare dăunătoare”!
Așa cum a făcut Mike Benz lămurit în lucrările și interviurile sale recente (susținute cu dovezi detaliate), aproape toată finanțarea pentru universitățile sau institutele de cercetare din întreaga lume care efectuează acest tip de muncă, împreună cu „verificatorii de fapte” care le folosesc, provine de la Departamentul de Stat al SUA, NATO și Foreign Office britanic care, în urma votului pentru Brexit și a alegerilor Trump din 2016, au fost hotărâți să oprească ascensiunea „populismului” peste tot. Acest obiectiv este cel care a determinat cursa nebună a AI de a cenzura internetul. Uită-te la acest videoclip în care Mike Benz ne prezintă un eveniment care a avut loc în 2019:
a fost găzduit de Consiliul Atlantic, o organizație frontală a NATO, pentru a instrui jurnaliștii din organizațiile principale din întreaga lume despre cum să „combate dezinformarea”. Observați modul în care clarifică faptul că „dezinformarea” include pentru ei „informația defectuoasă”, pe care o definesc drept informații care sunt adevărate, dar care ar putea dăuna propriei lor narațiuni. Ei explică cum să arunci o astfel de „informație defectuoasă”, în special din postările (pe atunci) ale președintelui Trump pe rețelele sociale înainte de alegerile din 2020. În ciuda afirmațiilor că acest lucru nu s-a întâmplat (și într-adevăr orice astfel de afirmații au fost ele însele clasificate drept dezinformare), jurnaliștii implicați în acest lucru ulterior au s-a lăudat foarte public că nu numai că au făcut-o, ci că a împiedicat realegerea lui Trump în 2020.
Actualizare: Două articole extrem de relevante de la colegi:
Despre autor
Norman Fenton este profesor emerit de management al informațiilor de risc la Universitatea Queen Mary din Londra. De asemenea, este Director al Agena, o companie specializată în managementul riscurilor pentru sisteme critice. El este un matematician de formare al cărui accent actual este pe luarea deciziilor critice și, în special, pe cuantificarea incertitudinii folosind modele cauzale, probabilistice, care combină datele și cunoștințele (rețele bayesiene). Abordarea poate fi rezumată ca „date inteligente, mai degrabă decât date mari”.