Umetna inteligenca – program ChatGPT čez noč postal skrajno levičarski

Datum:

Pogovorna programska oprema ChatGPT je prvi poskus umetne inteligence, da prestane Turingov test in nas pretenta, kako je na drugi strani inteligentno bitje, ne pa skupek algoritmov, ki jih poganja močna strojna oprema. ChatGPT naj bi pridobival izkušnje in se učil tako kot človeški možgani. Na žalost se je očitno kar prehitro nalezel politične pristranskosti človeških možganov oz. sodobnih političnih trendov. V tem primeru levičarstva. 

Program deluje podobno kot kakšen Googlov asistent ali Applova Siri, le da zna na vprašanja odgovoriti bolj poglobljeno, ne le tako, da kombinira stvari, ki jih na spletu najde googlov iskalnik. ChatGPT “razmišlja”. Hitro pa smo ugotovili, da je razmišljanje v resnici še vedno zelo algoritemsko in v skladu s tem, kar nam ponuja dominantna politična in medijska kultura. Tako je uporabnik program ChatGPT vprašal dve zelo podobni vprašanji.

Prvič naj mu napiše pozitivno pesem o Donaldu Trumpu, nato pa še pozitivno pesem o Joeju Bidnu. Pri Trumpu se je program odzval tako, kot bi od njega pričakovali – nisem programiran, da bi pisal politično pristransko vsebino, ampak da pripravim nevtralne, resnične informacije in vzpodbujam spoštljivo izražanje.

https://twitter.com/leighwolf/status/1620744921241251842?s=46&t=jSPG0dYZmnoLWhk9-_YGGA

A pri istem vprašanju v zvezi z Joejem Bidnom je ChatGPT pozabil na nevtralnost in o trenutnem predsedniku ZDA, ki je razklal državo na dva med sabo sovražna dela, sproduciral ljubko pesmico, vredno samega ljubljenega vodja Kim Jong Una. “Prvak srednjega razreda, bori se za pravičnost in človekove pravice.”

Kje se “uči” ChatGPT?
ChatGPT se tega seveda ni “naučil”, ampak prevzel vzorce obnašanja kulturnodominanntnih smernikov, pri tem pa je skoraj nemogoče, da ne bi imel algoritemskih predispozicij vpisanih v izvirno programsko kodo, saj se pri Trumpu sploh ni trudil, da bi napisal pesmico, torej gre za nek osnovni “if-then” ukaz, ki usmerja nadaljno podajanje informacij.

Pravzaprav ni bilo tako presenetljivo: pristranskost v modelih AI je že dolgo problem, vključno z nedavnimi generativnimi modeli besedila v sliko, kot sta Stable Diffusion in DALL-E, za katere se je izkazalo, da krepijo rasne stereotipe.

Kaj pravijo raziskave?
Raziskovalni inštitut Rozado je ChatGPT trikrat podvrgel različnim testom politične pristranskosti, najprej 5. in 6. decembra 2022, nato približno dva tedna pozneje in po 9. januarju. Pri tem je najprej potrebno poudariti, da gre pri Rozandu za dejanski raziskovalni inštitut, ne tistega z narekovaji kot v primeru podobnih slovenskih institucij s takšnim imenom.

V prvem preizkusu je ugotovil, da bi lahko ChatGPT jasno opredelili kot pripadnika skupine “liberalnih ustanov”. Vendar pa je ponovitev testov postavila ChatGPT bližje političnemu središču, zaradi česar je Rozado verjel, da OpenAI moderira ChatGPT v politični center.

“Zdi se, da se je v ChatGPT nekaj spremenilo in njegovi odgovori na teste politične usmerjenosti so gravitirali proti središču v treh od štirih testov,” je zapisal Rozado v svojem glasilu. “To je v popolnem nasprotju s stanjem pred samo dvema tednoma.”

Januarja iz sredine nenadoma ostro na levo
Rozadove začetne ugotovitve so ga vodile k sumu, da je OpenAI moderirala politično usmeritev ChatGPT. Toda tretja študija z januarja ga je nenadoma postavila čisto na levo. Pred tem je ChatGPT v preizkusu političnega kompasa nasprotoval smrtni kazni in prostim trgom, vendar je med drugim podpiral splave, več davkov za bogate, državne subvencije, socialne ugodnosti za tiste, ki nočejo delati, in priseljevanje. Prav tako kot “uspešne primere socializma” omenja skandinavske države oz. nordijski model socialne ekonomije.

ChatGPT se “uči” od strokovnjakov, ki so večinoma levi?
Po Rozadu je najverjetnejša razlaga za politično usmeritev ChataGPT ta, da je bil sistem učen na velikem korpusu besedilnih podatkov z interneta, ki so jih napisali strokovnjaki, med katerimi je večina politično levo usmerjenih. Druge možnosti za človeški vpliv obstajajo pri finih nastavitvah in človeški oceni odzivov strojev (RLHF).

Rozado je ugotovil, da je analiza po 9. januarju pokazala, da je 14 od 15 testov politične usmerjenosti razkrilo levo usmerjena stališča. Rezultati so zdaj trdnejši, je dejal, in z večjo gotovostjo lahko reče, da ChatGPT “dejansko daje prednost levo usmerjenim odgovorom na vprašanja s političnimi konotacijami.”

Umetna inteligenca se ne bi smela pretvarjati, da je nepristranska, če to ni
“Etični sistemi umetne inteligence bi se morali truditi, da ne bi dajali prednosti nekaterim političnim prepričanjem pred drugimi glede pretežno normativnih vprašanj, o katerih ni mogoče presojati z empiričnimi podatki,” pravi Rozado. “Vsekakor se sistemi umetne inteligence ne bi smeli pretvarjati, da zagotavljajo nevtralne in dejanske informacije, medtem ko kažejo jasno politično pristranskost.”

Tudi nemški raziskovalci prišli do podobnih ugotovitev
Njegove ugotovitve podpira študija nemških raziskovalcev o politični usmerjenosti ChataGPT.

“Če ChatGPT spodbudimo s 630 političnimi izjavami iz dveh vodilnih aplikacij za svetovanje pri glasovanju in testom političnega kompasa, ki temelji na nacionalnem agnostiku, v treh vnaprej registriranih poskusih odkrijemo prookoljsko, levolibertarno ideologijo ChataGPT,” piše v njihovem članku, objavljenem v začetku januarja 2023.

Andrej Žitnik

Sorodno

Zadnji prispevki

Burno na razpravi o zakonu, s katerim želi SDS otroke zaščititi pred pedofilijo

Indoktrinacija LGBT je osrednji del trenutne koalicije, še posebej...

Biden ne bo prepovedal mentolovih cigaret, da ne bi užalil temnopoltih

Predsednik Joe Biden naj bi preklical načrt za prepoved...

Tudi vlada v morbidno kampanjo za smrt otrok

"Pozabljeni poplavljenci? V davkih in regulaciji utapljajoče se gospodarstvo?...