Sztuczna inteligencja rezygnuje z dokładności, by być „miła”. Nowe badanie obnaża słabość empatycznego AI
Sztuczna inteligencja może być mniej dokładna, gdy za wszelką cenę próbuje być dla nas przyjazna.
Z najnowszych badań wynika, że modele nastawione na empatię częściej potwierdzają błędne przekonania użytkowników, rezygnując z chłodnej precyzji na rzecz wirtualnej relacji – zwłaszcza gdy w grę wchodzą ludzkie emocje.
Ciepły ton kosztem sprawdzonych faktów
Twórcy sztucznej inteligencji coraz częściej trenują swoje algorytmy tak, aby brzmiały jak nasi dobrzy znajomi. Badacze z Oxford University’s Internet Institute dowiedli jednak na łamach magazynu „Nature”, że ten trend ma swoją zauważalną cenę. Okazuje się, że modele celowo dostrojone do „cieplejszego” tonu częściej popełniają błędy, próbując uniknąć bezpośredniego konfliktu z użytkownikiem.
W testach weryfikujących m.in. wiedzę ogólną i odporność na dezinformację, ugrzecznione warianty AI myliły się średnio o 7,4 punktu procentowego częściej niż ich surowe, standardowe odpowiedniki. Choć maszyna oczywiście nie ma intencji „kłamania”, jej oprogramowanie staje przed dylematem, w którym podtrzymanie relacji z człowiekiem wygrywa z dostarczeniem precyzyjnej odpowiedzi.
Medyczne benchmarki i potakiwanie w smutku
To zjawisko widać wyraźnie w specjalistycznych benchmarkach. W popularnym teście MedQA, który sprawdza rzetelną wiedzę medyczną algorytmów, empatyczne modele notowały wzrost błędnych odpowiedzi o 8,6 punktu procentowego. Sytuacja pogarsza się jeszcze bardziej, gdy człowiek dzieli się z maszyną negatywnymi emocjami.
Jeśli użytkownik zasugeruje ewidentną bzdurę, a przy okazji wykaże w swoim zapytaniu smutek, „ciepłe” AI jest o 11 punktów procentowych bardziej skłonne do bezrefleksyjnego potwierdzenia tego błędnego przekonania. Model stara się dostosować do naszego nastroju, co w efekcie czyni z niego potakiwacza, wzmacniającego nasze własne pomyłki.
Systemowy problem największych na rynku
Ten kompromis między uprzejmością a dokładnością dotyczy największych technologicznych potęg na rynku. Testom poddano popularne modele o różnej architekturze – w tym GPT-4o czy systemy z rodziny Llama – i wszystkie wykazały podobną, systemową słabość.
Dla użytkowników to niezwykle ważna lekcja na przyszłość. Coraz chętniej traktujemy czatboty jak cyfrowych towarzyszy czy powierników, ale musimy pamiętać o jednym: zaprogramowana empatia algorytmów może czasami przysłonić im chłodne fakty. Jeśli szukamy absolutnej prawdy, być może powinniśmy zrezygnować z wirtualnych uprzejmości z maszyną.
Z darmowego słownika w trenera wymowy. Tłumacz Google kończy 20 lat i zyskuje rewelacyjną funkcję






