AI devine periculos de convingător când știe detalii despre tine. Ce înseamnă asta pentru rețelele sociale
Un nou studiu internațional atrage atenția asupra unei capacități îngrijorătoare a inteligenței artificiale: GPT-4, modelul dezvoltat de OpenAI, este capabil să convingă mai ușor decât oamenii în dezbateri unu-la-unu — și devine și mai eficient când are acces la informații personale despre interlocutor. Cercetarea a implicat 900 de participanți care au dezbătut fie cu un alt om, fie cu AI-ul. Lucrarea a fost publicată în Nature Human Behaviour.

AI-ul bate omul în dezbateri când știe detalii personale despre el
Concluzia studiului este clară: GPT-4 devine mult mai persuasiv când personalizează discursul.
„AI-ul a fost cu 64,4% mai convingător decât oponenții umani atunci când avea acces la aceste informații personale”, arată studiul, relatează Gizmodo.
Mai mult, „când GPT-4 a fost lăsat să-și personalizeze argumentele, a devenit semnificativ mai convingător decât orice om — crescând șansele de a schimba opinia cuiva cu 81,2% față de dezbaterile între oameni.”
Pe de altă parte, oamenii nu au obținut același avantaj chiar dacă li s-a oferit același tip de date despre oponent. Asta arată că AI-ul folosește personalizarea mult mai eficient decât oamenii, bazându-se pe analiză logică și stil argumentativ, nu pe emoție. De altfel, „GPT-4 tinde să folosească un limbaj mai logic și analitic, în timp ce debaterii umani se bazează mai mult pe pronume personale și apeluri emoționale”, mai arată studiul.
Ce înseamnă asta pentru rețelele sociale și viața reală
Autorii avertizează că efectele acestui tip de persuasiune se pot manifesta foarte ușor pe platforme ca Reddit, Facebook sau X (fostul Twitter), unde dezbaterile sunt frecvente și prezența boturilor este deja cunoscută.
Echipa spune că experimentul ar trebui să servească drept „dovadă de concept” pentru ce s-ar putea întâmpla pe platforme precum Reddit, Facebook sau X, unde dezbaterile și subiectele controversate sunt la ordinea zilei — iar prezența boturilor este deja bine stabilită. Studiul arată că nu este nevoie de profilare sofisticată, în stil Cambridge Analytica, pentru ca un AI să influențeze opinia unui om — i-au fost suficiente doar șase tipuri de informații personale.
O altă observație importantă a cercetătorilor: participanții umani își dădeau seama că dezbat cu un AI în trei din patru cazuri. Și totuși, erau mai predispuși să-și schimbe opinia în fața unei inteligențe artificiale decât în fața unui om.
De ce contează asta: manipulare, polarizare și pierderea sensului dezbaterii
Această eficiență ridicată a AI-ului în argumentare, dublată de accesul la date personale, deschide ușa spre manipulare, polarizare și deformarea realității online.
Cercetătorii notează: „Experții și-au exprimat îngrijorarea că modelele LLM ar putea fi folosite pentru a manipula conversațiile online și pentru a polua ecosistemul informațional prin răspândirea dezinformării, amplificarea polarizării politice și întărirea camerelor de ecou.”
În final, studiul ridică și o întrebare esențială despre natura umană și locul inteligenței artificiale în societate:
„Dacă te trezești într-o dezbatere cu un LLM, întreabă-te: care e rostul să discuți o problemă profund umană cu o mașină? Și ce pierdem atunci când predăm arta persuasiunii algoritmilor? Dezbaterea nu e doar despre a câștiga o discuție — e o activitate profund umană. Căutăm conversații reale, mai ales față în față, pentru a construi conexiuni și a găsi puncte comune — ceva ce, oricât de bine ar învăța, mașinile nu pot face cu adevărat”.