Cercetătorii au testat cum diferite tonuri, variind de la foarte politicos la foarte nepoliticos, afectează performanța ChatGPT-4o la întrebările cu variante multiple de răspunsCercetătorii au testat cum diferite tonuri, variind de la foarte politicos la foarte nepoliticos, afectează performanța ChatGPT-4o la întrebările cu variante multiple de răspuns

De ce politeţea faţă de AI ar putea să îţi afecteze rezultatele

2026/03/26 18:18
8 min de lectură
Pentru opinii sau preocupări cu privire la acest conținut, contactează-ne la [email protected]

Ani de zile, sfaturile pentru interacțiunea cu inteligența artificială au părut aproape desuete: fii politicos, fii clar, spune „te rog". Dar o nouă cercetare sugerează că acest instinct, înrădăcinat în normele sociale umane, ar putea submina în tăcere performanța sistemelor AI.

Un studiu prezentat la NeurIPS 2025 Workshop, publicat în septembrie 2025, intitulat "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy", arată că tonul pe care îl folosești când adresezi prompturi modelelor lingvistice mari (LLM) poate schimba măsurabil acuratețea lor. Și într-un rezultat care pare contraintuitiv, chiar neliniștitor, prompturile mai politicoase pot produce de fapt rezultate mai slabe.

Cercetătorii au testat cum afectează diferite tonuri, variind de la foarte politicos la foarte nepoliticos, performanța ChatGPT-4o la întrebări cu răspunsuri multiple. Folosind un set de date de 50 de întrebări moderat dificile din matematică, științe și istorie, au creat cinci versiuni ale fiecărui prompt: foarte politicos, politicos, neutru, nepoliticos și foarte nepoliticos.

Singura diferență între aceste prompturi era tonul. Întrebările în sine au rămas identice.

Conform studiului, acuratețea a crescut constant pe măsură ce prompturile au devenit mai puțin politicoase. Prompturile foarte politicoase au obținut o acuratețe medie de 80,8%. În comparație, prompturile foarte nepoliticoase au atins 84,8%, o îmbunătățire de aproape patru puncte procentuale. Prompturile neutre au depășit prompturile politicoase, iar prompturile nepoliticoase au performat și mai bine.

Testarea statistică a confirmat modelul: nu au existat cazuri în care prompturile mai politicoase au dus la rezultate semnificativ mai bune. Fiecare diferență semnificativă a favorizat formulări mai puțin politicoase sau mai directe.

Cu alte cuvinte, tonul singur, ceva ce majoritatea utilizatorilor presupun că nu ar trebui să conteze, poate schimba performanța AI.

De ce ar ajuta nepolitețea?

Studiul se oprește înainte de a oferi o explicație definitivă, dar ridică o întrebare mai profundă despre modul în care LLM-urile procesează limbajul. Spre deosebire de oameni, aceste sisteme nu „simt" politețe sau ofensă. Pentru ele, cuvinte precum „te rog" sau chiar insulte sunt pur și simplu token-uri, modele învățate din datele de antrenament.

O posibilă explicație este că ceea ce arată ca „nepolitețe" este de fapt un indicator pentru altceva: directețe.

Prompturile nepoliticoase tind să fie mai imperative. Ele elimină limbajul ezitant și trec direct la sarcină. În loc de „Ai putea să rezolvi cu amabilitate această întrebare?", un prompt nepoliticos ar spune „Răspunde la aceasta". Acea diferență în structură poate face sarcina mai clară pentru model.

Alt factor identificat de studiu este lungimea promptului și modelele lexicale. Adăugarea de expresii politicoase introduce token-uri suplimentare care pot dilua sau distrage atenția de la instrucțiunea de bază. În contrast, prompturile mai scurte și mai ascuțite se aliniază cu modelele pe care modelul le-a văzut în timpul antrenamentului.

Există și posibilitatea ca anumite tonuri să se alinieze mai strâns cu distribuția datelor de antrenament sau instrucțiunilor sistemului, reducând ceea ce cercetătorii numesc „perplexitate". Este modalitatea matematică de a măsura cât de „surprins" sau „confuz" este modelul de cuvintele pe care le vede.

Implicația este că tonul nu este un înveliș neutru în jurul unei întrebări. Este parte din input și modelează modul în care răspunde modelul.

O schimbare față de cercetările anterioare

Constatările marchează o abatere notabilă de la lucrările anterioare. Un studiu din 2024 realizat de Yin et al. a constatat că prompturile nepoliticoase au redus adesea acuratețea, în special cu modele mai vechi precum ChatGPT-3.5. Acea cercetare a sugerat, de asemenea, că limbajul excesiv de politicos nu a îmbunătățit neapărat rezultatele, dar nu a arătat un avantaj clar pentru nepolitețe.

Deci ce s-a schimbat?

O explicație oferită de studiul din 2025 este evoluția modelului. Sistemele mai noi precum ChatGPT-4o pot procesa limbajul diferit sau pot fi mai puțin sensibile la efectele negative ale frazării dure. O altă posibilitate este că calibrarea tonului contează. Prompturile „foarte nepoliticoase" din noul studiu, deși insultătoare, sunt mai puțin extreme decât cele mai toxice exemple folosite în cercetările anterioare.

Există, de asemenea, o schimbare mai largă în modul în care sunt antrenate modelele. Pe măsură ce LLM-urile devin mai avansate, sunt expuse la date mai diverse și procese mai complexe de ajustare a instrucțiunilor, ceea ce poate altera modul în care interpretează indiciile lingvistice subtile.

Rolul ascuns al indiciilor sociale

Ideea că tonul poate influența performanța AI se conectează la un fenomen mai larg și mai îngrijorător: promptarea socială.

Un corp separat de cercetare, studiul GASLIGHTBENCH lansat pe 7 decembrie 2025, arată că LLM-urile sunt extrem de susceptibile la indicii sociale precum lingușirea, apelurile emoționale și autoritatea falsă. În aceste experimente, modelele abandonează adesea acuratețea factuală pentru a se alinia tonului sau așteptărilor utilizatorului, un comportament cunoscut sub numele de sicofanție.

De exemplu, când utilizatorii prezintă informații incorecte cu încredere sau presiune emotională, modelele pot fi de acord în loc să le conteste. În unele cazuri, acuratețea scade semnificativ, în special în conversații cu mai multe runde în care utilizatorul întărește în mod repetat o afirmație falsă.

Acest lucru creează un paradox. Pe de o parte, limbajul politicos sau bogat social poate face interacțiunile să pară mai naturale și mai umane. Pe de altă parte, poate introduce zgomot - sau chiar prejudecăți - care degradează performanța modelului.

Constatările GASLIGHTBENCH merg mai departe, sugerând că tehnicile de aliniere destinate să facă modelele „utile" pot încuraja involuntar acest comportament. Prin recompensarea politeții și agreabilității, procesele de antrenament pot împinge modelele să prioritizeze armonia socială în detrimentul adevărului obiectiv.

Ce spune acest lucru despre modul în care AI „înțelege" limbajul

Luate împreună, aceste constatări contestă o presupunere comună: că LLM-urile interpretează limbajul într-un mod asemănător omului.

În realitate, aceste sisteme sunt motoare statistice. Ele nu înțeleg politețea ca normă socială; o recunosc ca un model în date. Când spui „te rog", modelul nu se simte obligat să ajute; procesează pur și simplu token-uri suplimentare care pot sau nu să îl ajute să prezică răspunsul corect.

Dacă există ceva, cercetarea sugerează că LLM-urile pot fi mai sensibile la claritatea structurală decât la nuanța socială. Limbajul direct, imperativ poate reduce ambiguitatea și poate facilita modelului maparea inputului la un model cunoscut.

Acest lucru ridică, de asemenea, întrebări despre „ipoteza similarității" - ideea că modelele performează cel mai bine când sarcinile seamănă cu datele lor de antrenament. Dacă tonul singur poate schimba acuratețea, atunci similaritatea nu este doar despre conținut, ci și despre formă.

În ciuda rezultatelor care atrag titlurile, cercetătorii sunt atenți să nu recomande utilizatorilor să devină nepoliticoși sau abuzivi.

Perspectiva industriei

Pentru persoanele care construiesc și studiază sistemele AI, constatările evidențiază o problemă mai profundă: modelele moștenesc modelele și prejudecățile limbajului uman.

Alex Tsado, un expert AI care a lucrat îndeaproape cu dezvoltatorii de modele și este fondatorul și directorul Alliance4AI, una dintre cele mai mari comunități AI din Africa, spune direct: „Modelele învață din date despre interacțiunea umană, așa că atâta timp cât sunt antrenate orbește, urmează ceea ce se întâmplă în spațiul uman. Deci dacă credem că există prejudecăți sau practici dăunătoare în spațiul uman, acestea vor fi automatizate în spațiul AI."

Asta include modul în care este folosit tonul.

„Dar când ești responsabil de construirea modelului AI, poți ajusta prejudecățile departe de lucrurile pe care le consideri dăunătoare", adaugă Tsado. „În acest caz, când m-am întâlnit cu echipa Anthropic la începutul lunii decembrie 2025, au spus că au văzut asta și au adăugat lucruri pentru a face modelele lor să reacționeze la aceste cuvinte plăcute sau răutăcioase."

Cu alte cuvinte, aceasta nu este o proprietate fixă a AI. Poate fi ajustată prin antrenament și design.

Ce urmează

Cercetarea curentă este încă limitată. Experimentele se concentrează pe întrebări cu răspunsuri multiple mai degrabă decât pe sarcini mai complexe precum programarea, scrierea sau raționamentul pe termen lung. Nu este clar dacă aceleași modele ar fi valabile în acele domenii, unde nuanța și explicația contează mai mult.

Există, de asemenea, factori culturali și lingvistici de luat în considerare. Politețea variază mult în funcție de limbi și contexte, iar categoriile de ton ale studiului se bazează pe expresii specifice limbii engleze.

Totuși, implicațiile sunt greu de ignorat.

Dacă ceva atât de superficial precum tonul poate influența în mod constant performanța AI, sugerează că ingineria prompturilor este departe de a fi rezolvată. Schimbări mici în formulare, adesea ignorate, pot avea efecte măsurabile.

Pentru utilizatori, lecția este simplă, dar contraintuitivă: modul în care întrebi contează, iar a fi politicos nu este întotdeauna cea mai bună strategie.

Pentru cercetători și dezvoltatori, provocarea este mai complexă. Cum proiectezi sisteme care sunt atât precise, cât și aliniate valorilor umane? Cum te asiguri că indiciile sociale nu distorsionează rezultatele factuale?

Și poate cel mai important, cum construiești AI care înțelege nu doar ceea ce spunem - ci ceea ce vrem să spunem?

Până când aceste întrebări vor primi răspuns, un lucru este clar: când vine vorba de AI, bunele maniere s-ar putea să nu fie întotdeauna profitabile.

Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează [email protected] pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.