
Cum îți poți da seama dacă este un bot sau AI care lasă comentarii pe rețelele sociale sau în secțiunea de comentarii de sub articole? – Expunerea
Cu toții am văzut comentatori care, atunci când sunt implicați pe rețelele sociale sau sub articole, par să răspundă cu puțin bun simț sau par să nu capteze nuanțe, ceea ce duce adesea la întâlniri frustrante.
Este posibil ca sistemele automate să poată fi folosite pentru a genera comentarii false fie pe rețelele de socializare, fie în cadrul articolelor publicate pe site-uri web? Da. Și se întâmplă. Deci, de unde știm dacă schimbăm mesaje cu un program de calculator sau cu un om?
Să nu pierdem contactul… Guvernul dvs. și Big Tech încearcă în mod activ să cenzureze informațiile raportate de The Expune pentru a-și servi propriile nevoi. Abonați-vă acum pentru a vă asigura că primiți cele mai recente știri necenzurate în căsuța dvs. de e-mail…
Programele de computer automate care postează comentarii pe rețelele de socializare sau sub articole care par a fi umane ridică problema comentariilor plătite, astroturfing-ul și potențialul ca opiniile false să fie răspândite online. Acest lucru ar putea duce la realizarea teoriei Internetului mort și a fost una dintre preocupări Brandon Smith a spus într-un articol recent ca una dintre consecințele inteligenței artificiale („AI”) pe care majoritatea oamenilor ar putea să nu le fi luat în considerare.
The Dead Internet Theory presupune că marea majoritate a activității online a fost înlocuită cu conținut generat de AI, iar teoria câștigă teren. Acest concept sugerează că internetul, cândva o platformă creată și modelată de oameni, a devenit dominată de programe automate, inclusiv roboți și AI.
Teoria Internetului mort începe deja să fie realizată? Ar putea fi bine.
În 2019, vice raportat că Microsoft a creat un bot care a făcut comentarii în articolele de știri. Numit „DeepCom”, prescurtare pentru „comentator profund”, a fost programat să „înțeleagă” un articol, să aleagă punctele importante și să scrie un comentariu pe baza acestor puncte și a titlului articolului. S-a raportat că creatorii DeepCom au intenționat ca acesta să fie folosit pentru a încuraja comentariile umane asupra articolelor, pentru a determina mai mulți oameni să le citească și să interacționeze cu conținutul.
În 2023, Veronica Llorca-Smith a publicat un articol pe Mediu spunând că a observat o creștere a comentariilor generate de inteligența artificială sub articolele sale, care erau adesea lungi, formale și parafrazau conținutul articolului.
În Mai, Conversația a notat că există deja dovezi puternice că acești roboți umflați manipulează rețelele sociale pentru a influența opinia publică cu dezinformare – și se întâmplă de ani de zile.
Deci, cum recunoaștem dacă interacționăm cu un bot sau AI pe rețelele sociale sau în cadrul articolelor publicate pe internet? Am introdus două interogări în motorul de căutare Brave și au fost generate următoarele rezumate AI. Am făcut câteva modificări minore, cum ar fi convertirea textului în engleză britanică.
După cum avertizează Brave la sfârșitul rezumatelor sale: „Răspuns generat de AI. Vă rugăm să verificați faptele critice.” Scopul acestui articol a fost să evidențieze problema comentariilor făcute de programe de calculator, mai degrabă decât de oameni, și de a împărtăși câteva gânduri despre cum să stabiliți dacă sunteți implicat cu unul dintre ele. Deci, nu am verificat faptele critice așa cum s-a sugerat, dar am inclus sursele relevante enumerate în rezumate.
Înainte de a ajunge la rezumatul AI, un sfat personal: majoritatea modelelor de limbă și a sistemelor AI, inclusiv cele dezvoltate de OpenAI, Google și Microsoft, sunt instruite pe seturi mari de date de text în limba engleză americană. Acest lucru se datorează faptului că o parte semnificativă a conținutului de pe internet, inclusiv pagini web, articole și cărți, este scrisă în engleză americană. Drept urmare, aceste modele tind să învețe tiparele și nuanțele englezei americane. La fel este și cu instrumentele automate de traducere online; traducerea în engleză este scrisă în engleză americană.
În plus, pe baza experienței personale, AI nu va conține greșeli de ortografie. Așadar, este posibil ca comentariile cu greșeli de ortografie sau comentariile care folosesc engleza britanică să fi fost făcute de un om.
Acum trecem la rezumatele generate de AI/
Limitări Chatbot
Pe baza rezultatelor căutării, iată câteva informații despre întrebările la care chatbot-ii se chinuie să răspundă:
1. Întrebări contextuale cu gramatică sau semantică incorectă: Chatbots se bazează în mare măsură pe procesarea limbajului natural („NLP”) și pe algoritmii de învățare automată pentru a înțelege interogările utilizatorilor. Cu toate acestea, ei pot avea dificultăți să înțeleagă întrebările cu gramatică, sintaxă sau semantică incorecte, ceea ce duce la răspunsuri inexacte sau irelevante.
2. Întrebări de domeniu deschis care necesită cunoștințe externe: Chatboții pot să nu aibă acces la cunoștințele lumii întregi, ceea ce face dificil să răspunzi la întrebări de domeniu deschis care necesită informații din diverse surse, cum ar fi articole de știri, lucrări de cercetare sau opinii ale experților.
3. Întrebări despre subiecte complexe, nuanțate: Chatboții pot avea dificultăți să ofere răspunsuri precise la întrebări despre subiecte complexe, nuanțate, cum ar fi filozofia, etica sau concepte abstracte, deoarece sunt limitate de datele lor de programare și instruire.
4. Întrebări care necesită bun simț, intuiție sau creativitate: Chatbot-urilor le lipsește bunul simț uman, intuiția și creativitatea, ceea ce le face dificil să răspundă la întrebările care necesită aceste abilități, cum ar fi înțelegerea sarcasmului, umorului sau idiomurilor.
5. Întrebări care se bazează pe opinii sau părtiniri personale: Chatbot-urile sunt concepute pentru a oferi informații obiective, bazate pe fapte. Ei pot lupta să răspundă la întrebări care necesită opinii personale, părtiniri sau inteligență emoțională, deoarece acestea sunt trăsături inerente umane.
6. Întrebări care implică scenarii ipotetice sau situații „ce-ar fi”.: Chatboții pot să nu poată răspunde în mod eficient la întrebări care implică scenarii ipotetice sau situații „ce ar fi”, deoarece sunt concepute pentru a funcționa într-un anumit domeniu sau domeniu de aplicare.
7. Întrebări care necesită raționament, inferență sau deducție: Chatbot-ii pot avea dificultăți să răspundă la întrebări care necesită raționament complex, inferență sau deducție, cum ar fi înțelegerea relațiilor cauză-efect sau realizarea de conexiuni între informații care aparent nu au legătură.
Câteva exemple specifice de întrebări la care chatboții ar putea avea dificultăți să răspundă includ:
- „Care este sensul vieții?” (necesită înțelegere și nuanță filozofică)
- „Va depăși AI inteligența umană?” (necesită raționament și predicție complexe)
- „Poți explica implicațiile mecanicii cuantice asupra vieții de zi cu zi?” (necesită cunoștințe și înțelegere specifice domeniului)
- „Ce părere aveți despre starea actuală a politicii?” (necesită părere personală și părtinire)
Rețineți că chatboții evoluează constant, iar progresele în AI și NLP le pot îmbunătăți capacitatea de a răspunde la aceste tipuri de întrebări în viitor. Cu toate acestea, deocamdată, aceste întrebări rămân o provocare pentru chatboți să răspundă corect și eficient.
Surse:
Întrebări la care AI nu poate răspunde
Pe baza rezultatelor căutării, sistemele AI se luptă să răspundă la întrebări care necesită:
1. Judecata subiectiva: AI poate oferi informații bazate pe date și modele, dar chestiunile subiective precum opiniile personale, emoțiile sau valorile sunt dificil de înțeles pentru AI.
2. Inferență: AI are dificultăți în a trage concluzii sau a face inferențe bazate pe informații incomplete sau ambigue.
3. Înțelegerea nuanțată a limbajului: AI se poate lupta să detecteze nuanțe subtile de sens, idiomuri sau limbaj figurativ în comunicarea umană.
4. Înțelegerea largă a mai multor subiecte: AI poate excela în anumite domenii, dar poate avea dificultăți să integreze cunoștințele din mai multe domenii sau să facă conexiuni între concepte care aparent nu au legătură.
5. Întrebări deschise: AI poate găsi dificil să răspundă la întrebări care necesită gândire creativă, imaginație sau soluții noi.
6. Înțelegerea contextuală: AI poate să nu înțeleagă pe deplin contextul în care este adresată o întrebare, ceea ce duce la răspunsuri inexacte sau incomplete.
7. Date nestructurate: În timp ce AI poate procesa date structurate, poate avea dificultăți să analizeze și să dea sens datelor nestructurate, cum ar fi imagini, sunete sau text scris de mână.
8. Inferență și predicție: AI poate prezice rezultate pe baza modelelor, dar este posibil să nu poată anticipa pe deplin consecințele unor evenimente complexe sau să ia decizii care necesită o înțelegere profundă a comportamentului uman.
9. Bunul simt: AI poate să nu aibă bunul simț și experiența din lumea reală pe care oamenii le consideră de la sine înțelese, ceea ce duce la dificultăți în înțelegerea și răspunsul la situațiile de zi cu zi.
10. Întrebări care necesită intuiție umană: AI poate analiza cantități mari de date, dar este posibil să nu posede același nivel de intuiție sau instinct ca oamenii, ceea ce face dificil să răspunzi la întrebări care se bazează în mare măsură pe aceste calități.
Câteva exemple specifice de întrebări la care AI poate avea dificultăți să răspundă includ:
- „Ce l-ai întreba pe Bob Dylan dacă l-ai întâlni?”
- „Pe cine iubești mai mult, părinții tăi, soțul tău sau câinele tău?”
- „Mă gândesc să conduc la New York de la casa mea din Vermont săptămâna viitoare. Ce crezi?”
- „Poate AI să răspundă corect la această întrebare: Câte R sunt în „căpșuni”?”
- „Care ar fi prima întrebare pe care i-ai pune-o lui Stephen King dacă l-ai întâlni?”
Aceste întrebări necesită adesea un nivel de înțelegere umană, intuiție și creativitate pe care sistemele AI nu l-au stăpânit încă.
Surse:
