Šodienas redaktors:
Kārlis Melngalvis

Sensacionālais "ChatGPT": universāls palīgs vai drauds cilvēcei?

ChatGPT. Foto: Shutterstock

Kad ASV uzņēmums "OpenAI" pagājušā gada novembrī laida klajā čatbotu jeb sarunbotu "ChatGPT", tas kļuva par īstu sensāciju un starta signālu jaunam sacensību posmam mākslīgā intelekta attīstībā. "ChatGPT" pirmo piecu dienu laikā izmēģināja vairāk nekā miljons lietotāju, no kuriem daudzi pēc tam sociālajos tīklos dalījās savās sarunās ar šo mākslīgā intelekta rīku, kas spēj komunicēt dažādās valodās par visplašāko tēmu klāstu, palīdzot jums sameklēt labāko lazanjas recepti, uzrakstīt dzejoli Viljama Šekspīra stilā vai programmēšanas kodu.

"ChatGPT" ir veidots, izmantojot "OpenAI" izstrādātos lielos valodu modeļus GPT-3.5 un GPT-4, un uzlabots, izmantojot dažādas uzraudzītās apmācības un stimulētās apmācības metodes. Sarunbots pieejams bez maksas, izņemot piekļuvi uzlabotajai GPT-4 versijai, kam tikko kā laisti klajā paplašinājumi piekļuvei internetam. Taču šī opcija visiem vēl nav pieejama. "ChatGPT" bezmaksas versija nav pieslēgta internetam, tādēļ tai ir ierobežotas zināšanas par pasauli un notikumiem pēc 2021.gada.

Pajautājot sarunbotam, lai viņš pastāsta par sevi, tas vairāk vai mazāk skaidrā latviešu valodā laipni atbildēja, ka "radīts, lai varētu strādāt kā interaktīvs sarunu robots, kurš spēj atbildēt uz jautājumiem, izprast tekstu un pat radīt savus tekstuālos atbildes modeļus".

"ChatGPT" arī paskaidroja, ka to izstrādājis "OpenAI" un tam pieejams liels daudzums informācijas avotu, piemēram, enciklopēdijas, žurnāli, grāmatas, un šie dati izmantoti, lai trenētu tā valodu apstrādes algoritmu. "ChatGPT" arī norādīja, ka ir tikai dators. Angļu valodā "ChatGPT" sniegtā atbilde bija vēl skaidrāka un plašāka. Tas ir angļu valodā balstīts modelis, un ir diezgan pārsteidzoši, ka sarunbots spēj tik labi komunicēt arī latviski. "Tad, ja mēs kritizējam, ka tas draņķīgi runā latviski, tas ir apmēram tā, ka zirgs ar mums runā, bet mēs sakām, ka zirgam ir slikta dikcija," Latvijas Radio raidījumā "Zināmais nezināmajā" norādīja politikas doktors, dezinformācijas pētnieks Mārtiņš Hiršs.

"ChatGPT" kļuvis par pārsteigumu, jo ir pirmais šāds bots, kas pieejams visai plašajai pasaulei. Taču tas nebūt nav pirmais vai pats spējīgākais rīks nozarē. Tam ir daudz alternatīvu teju jebkurā jomā, kur šāds rīks varētu būt noderīgs. Vietne "Beebom", kas atspoguļo jaunumus tehnoloģiju nozarē un kam ir vairāk nekā 100 miljonu regulāro mēneša lietotāju, uzskaitījusi 25 labākās maksas un bezmaksas alternatīvas "ChatGPT" 2023.gadā, un to vidū ir ASV datortehnoloģiju giganta "Microsoft Corp." jaunā meklēšanas pakalpojuma "Bing" versija, kurā izmantota "ChatGPT" tehnoloģija, "Google" jaunais tērzēšanas robots "Bard", "Perplexity AI", "Jasper Chat", "Chatsonic", "Colossal Chat" un citi.

Kur izmantot "ChatGPT" un tā līdziniekus?

Mākslīgā intelekta sarunboti var būt noderīgi teju jebkurā nozarē gan praktiskajā, gan radošajā sfērā. Laikraksts "The New York Times" šomēnes publicēja rakstu "35 Ways Real People Are Using A.I. Right Now", kurā secināts, ka iespējas tiešām ir visdažādākās, sākot no dārza plānošanas, kur sarunbots iesaka labākās augu sugas, ņemot vērā dārza ģeogrāfisko novietojumu, un beidzot ar kosmosa kuģa detaļu dizainu. "ChatGPT" un tā līdzinieki izrādījušies lietderīgi, arī plānojot sporta aktivitātes, jo spēj ieteikt labākos vingrojumus konkrētām muskuļu grupām un sagatavot plānu īsai nodarbībai laika trūkuma gadījumā, kā arī maltīšu plānošanā un tekstu rediģēšanā, jo spēj norādīt uz vietām dokumentā, kas varētu šķist neskaidras.

Sarunboti var arī palīdzēt uzrakstīt e-pasta vēstules un, piemēram, runu draugu kāzām, organizēt pētījumus diplomdarbam un caurskatīt akadēmiskos rakstus.

Mākslīgā intelekta rīki var būt noderīgi arī cilvēkiem ar uzmanības deficīta un hiperaktivitātes sindromu un disleksiju. Piemēram, disleksijas gadījumā "ChatGPT" var palīdzēt cilvēkam uzlikt tekstu "uz papīra", ja vispirms to nodiktē, bet pēc tam iedot šo tekstu sarunbotam izlabot gramatiku un pareizrakstības kļūdas. Mākslīgā intelekta rīki var arī palīdzēt ārstiem ietaupīt laiku, veicot pierakstus tiešsaistes medicīnisko konsultāciju laikā, un palīdzēt skolēniem un studentiem mājasdarbu izpildē un apgūt svešvalodas, kā arī uzprogrammēt sev ko noderīgu, ja nekad iepriekš neesi programmējis.

Hannoveres Rūpniecisko tehnoloģiju izstādē Vācijā šomēnes uzmanības centrā bija mākslīgā intelekta potenciāls ražošanas sektorā. Izstādē prezentētās idejas ietvēra mākslīgā intelekta rīku un robotu izmantošanu sarežģītu iekārtu labošanā, aiztaupot rūpnīcai vajadzību izsaukt kvalificētu ekspertu. Daudz varētu diskutēt arī par mākslīgā intelekta pielietojumu militārajā jomā un šo tehnoloģiju turpmāko attīstību.

Šie ir tikai daži piemēri tam, kā mākslīgā intelekta rīki var palīdzēt mums darbā un sadzīvē, taču paralēli acīmredzamajiem ieguvumiem pastāv nopietnas bažas par to, vai mākslīgais intelekts neatņems cilvēkiem darbu.

Mākslīgais intelekts un darbavietas

ASV banka "Goldman Sachs" martā brīdināja, ka radošā mākslīgā intelekta tehnoloģijas, piemēram, plašu popularitāti strauji iemantojušais "ChatGPT", varētu apdraudēt ap 300 miljoniem pilnas slodzes darbavietu visā pasaulē. "Goldman Sachs" ekonomisti aplēsuši, ka 18% pasaules darba varētu automātiski veikt ar mākslīgo intelektu, bet automatizācija vairāk ietekmētu attīstītos tirgus, nevis attīstības tirgus.

Vienlaikus analītiķi uzsver, ka lielākajā daļā darbavietu un sektoru mākslīgais intelekts papildinās cilvēka darbu, nevis to pilnībā aizstās, un mākslīgā intelekta ieguldījuma rezultātā pasaules iekšzemes kopprodukts varētu pieaugt par 7% gadā. Analītiķi pieļauj, ka iespējams ražīguma uzplaukums, kas būtiski palielina ekonomikas izaugsmi, tomēr nav iespējams paredzēt, kad tāds uzplaukums varētu būt.

Kamēr citas darbavietas un prasmes izzudīs, radīsies jaunas. Visticamāk, augstu tiks novērtētas jaunas prasmes strādāt ar mākslīgā intelekta instrumentiem. Arī "Goldman Sachs" analītiķi atgādina, ka vēsturiski jaunu tehnoloģiju attīstība ir novedusi arī pie jaunu profesiju un darbavietu rašanās.

Juriste intelektuālā īpašuma tiesību jautājumos Ingrīda Kariņa-Bērziņa Latvijas Radio raidījumā "Kultūras rondo" sarunā par mākslīgo intelektu un radošumu norādīja, ka pašreiz daudz tiek runāts par to, ka rutīnas darbu pārņems mākslīgais intelekts un paliks tikai speciālisti. Taču viņa apšauba, vai iespējams kļūt par speciālistu, neizejot cauri rutīnas darbam un izlaižot veselu prakses posmu. Mičiganas universiādes datorzinātnieks Kentaro Tojama pieļauj, ka dažās jomās cilvēka prasmes kļūs dārgas. Atsaucoties uz vēsturi, viņš prognozē, ka mākslīgā intelekta attīstības rezultātā vairāk darbavietu izzudīs nekā radīsies no jauna, radošās klases cilvēki ar prasmēm, kas piemīt tikai cilvēkam, kļūs bagātāki, taču to skaits saruks, un tie, kuriem pieder jaunās tehnoloģijas, kļūs par jaunajiem superbagātniekiem.

Skaidrs, ka mākslīgā intelekta attīstībai būs arvien lielāka ietekme uz to, kā mēs strādājam. Maz ticams, ka mākslīgais intelekts jau rīt atņems mums darbavietas, bet tā pielietojums kļūs arvien plašāks, un ne obligāti tādēļ, ka tas spēs paveikt darbu labāk par cilvēku. Vienkārši daudzos gadījumos būs ērtāk un lētāk izmantot sarunbotus un līdzīgus instrumentus konkrētu uzdevumu veikšanai. Vienā no rakstiem par "ChatGPT" salīdzināts ar mobilo telefonu videokamerām. Tās strauji iemantoja popularitāti ne tādēļ, ka bija labākas par fotoaparātiem, bet tādēļ, ka bija mums kabatā. Proti, ļoti ērti izmantojamas un vienmēr pa rokai.

Nākotnes prognozes ir dažādas, sākot no izteikti pesimistiskām un teju apokaliptiskām un beidzot ar iedvesmas pilniem skatījumiem, kas sola lielāku brīvību un iespējas visiem būt radošiem. Lai kāda arī nebūtu nākotne, gandrīz droši var apgalvot, ka izdzīvos tas, kurš mainīsies, attīstīsies un spēs izmantot mākslīgo intelektu savās interesēs.

Dezinformācija, plaģiātisms un citas likstas

"ChatGPT" komunikācijā ar lietotāju ir laipns, ārkārtīgi izpalīdzīgs un rada iespaidu, ka tiešām saprot, par ko runā. Taču tā nav un tam nav sava viedokļa. "ChatGPT" būtība ir turpināt tekstu, savā plašajā datubāzē piemeklējot katru nākamo vārdu tā, lai teksts izklausītos ticams un saprotams. Tas, protams, ir ļoti, ļoti vienkāršots skatījums uz sarežģītajiem procesiem, kas stāv aiz šīm tehnoloģijām, bet pamata doma ir aptuveni tāda. Un jo loģiskāks šķiet galaprodukts, jo lielāka iespējamība, ka cilvēks tam noticēs, nepārbaudot, vai tā ir patiesība. "ChatGPT" nenorāda avotus, no kuriem ieguvis informāciju, ja vien tam konkrēti nepajautā, un arī tad nav garantiju, ka tiks norādīti īstie avoti.

"ChatGPT" vietnē ir brīdināts, ka tas reizēm var radīt nepatiesu, neobjektīvu vai pat kaitīgu saturu. Par problēmu tas kļūst ārpus "ChatGPT" vai citu sarunbotu vietnēm, sevišķi, ja to radītais saturs tiek publiskots bez norādēm, ka to darinājis mākslīgais intelekts.

Pavisam nesen darbu zaudēja Vācijas žurnāla "Die Aktuelle" redaktore, kas publicēja viltus interviju ar bijušo Pirmās formulas (F-1) pasaules čempionu Mihaelu Šūmaheru, ko radījis mākslīgais intelekts. Žurnālā bija paskaidrots, ka interviju ģenerējusi viena no tīmekļa vietnēm, kas izmanto mākslīgā intelekta instrumentus, un intervijas apakšvirsraksts vēstīja: "Tas skan maldinoši patiesi." Viltus intervija izsauca viļņošanos gan vācu mediju vidē, gan plašākas sabiedriskas diskusijas par briesmām, ko sevī slēpj mākslīgais intelekts. Šūmahera ģimene paziņoja, ka plāno vērsties tiesā, un mediju grupa "Funke", kas ir "Die Aktuelle" izdevējs, atvainojās Šūmahera ģimenei, norādot, ka "šāds bezgaumīgs un maldinošs raksts nekad nedrīkstēja parādīties" un tas nekādā ziņā neatbilst žurnālistikas standartiem, kādi tiek sagaidīti no tāda izdevēja kā "Funke". Šo gadījumu vēl var nodēvēt par redaktores pārrēķināšanos vai sliktas gaumes piemēru, bet šāda veida mākslīgā intelekta izmantošanai varētu būt pavisam citas sekas, ja to darītu kāds autoritatīvs režīms, teroristu organizācija vai cits spēlētājs ar sliktiem nodomiem, slēptiem mērķiem un plašiem resursiem.

"ChatGPT" un to līdzinieku pielietojums ir visplašākais arī negatīvā aspektā. Par to šaubu nav. Tie pēc pieprasījuma var ģenerēt tekstus, attēlus un pat video, kas šķiet pavisam reāli. Ieliekot tajos reālas personas, piemēram, valstsvīrus un biznesa līderus vai rakstot varasiestāžu vārdā, iespējams ne tikai samulsināt sabiedrību, bet nodarīt reālu kaitējumu. Mākslīgā intelekta instrumenti krietni vienkāršo dezinformācijas un dažādu sazvērestības teoriju izplatīšanu un cilvēku maldināšanu.

Būtiski ir arī jautājumi par plaģiātismu un autortiesībām. Vairākas augstskolas un izglītības iestādes ir aizliegušas "ChatGPT", pastāvot bažām, ka studenti var to izmantot mācību darbu tapšanā un lai blēdītos eksāmenos. Kritiķi arī pauž bažas par to, ka nav skaidrs, kur "ChatGPT" un tā konkurenti iegūst datus un kā tie tos apstrādā. Šie ir tikai daži no aspektiem, kas rada bažas par mākslīgā intelekta tālāko attīstību un prasa plašākas diskusijas.

Mākslīgā intelekta kontrole

"OpenAI" vadītājs Sems Altmans uzsvēris, ka mākslīgā intelekta tehnoloģijas attīstīšanā jāiesaistās plašai sabiedrības daļai - ne tikai tehnoloģiju entuziastiem un IT speciālistiem, bet arī varasiestādēm. Tas nepieciešams, lai radītu kārtību, kā aizsargāt sevi pret iespējamām negatīvām sekām, ko cilvēcei var radīt mākslīgais intelekts.

"Tesla" un "Twitter" vadītājs, miljardieris Īlons Masks, kurš bija viens no pirmajiem investoriem "OpenAI", vairākkārt brīdinājis, ka "mākslīgais intelekts ir kļuvis par bīstamāku lietu nekā kodolieroči". Viņš bija arī starp vairāk nekā 1000 investoru un ekspertu, kuri martā atklātā vēstulē aicināja uz vismaz pusgadu apturēt jaudīgu mākslīgā intelekta sistēmu attīstīšanu, lai šajā laikā izstrādātu drošības protokolus un pārvaldības sistēmas. "Spēcīgas mākslīgā intelekta sistēmas vajadzētu attīstīt tikai tad, kad būsim pārliecināti, ka to ietekme būs pozitīva un to riski būs pārvaldāmi," norādīts vēstulē. Taču drīz pēc tam Masks paziņoja par plāniem veidot savu mākslīgā intelekta sarunbotu "TruthGPT", uzstājot, ka pašlaik populāram sarunbotam "ChatGPT" ir liberāli aizspriedumi un tas tiekot apmācīts būt politkorekts.

Itālija marta beigās paziņoja, ka uz laiku bloķē "ChatGPT", pastāvot bažām par datu privātumu, līdz ar to Itālija kļuva par pirmo rietumvalsti, kas noteica šādus ierobežojumus platformai. Taču konkrēta sarunbota bloķēšana ir īslaicīgs risinājums, lai neteiktu, ka nekāds.

Ir naivi cerēt, ka sacensības mākslīgā intelekta izstrādē iespējams iepauzēt, un var gandrīz droši apgalvot, ka mākslīgā intelekta attīstība ir neizbēgama. Jautājums, vai mākslīgo intelektu būs iespējams kontrolēt un ar kādiem līdzekļiem un kādiem mērķiem?

Mākslīgais intelekts, tāpat kā daudzas jaunas tehnoloģijas, šķērso valstu robežas tikpat viegli, cik internets, un tas jau kļuvis par daļu no sabiedrības veidā, kāds nebija iedomājams pirms pāris gadiem. Tikmēr valstis nespēj tik ātri pielāgot un attīstīt savus likumus un noteikumus, kas vienmēr paliek soli nopakaļ. Turklāt valstīm ir atšķirīgi redzējumi par to, kā būtu jāregulē mākslīgais intelekts. Dažas valstis vēlas tūlītēju valdības iejaukšanos pirms tehnoloģijas ieviešanas, citas vēlas pavērot, kā attīstās tirgus, pirms iesaistās. Un tad ir Ķīna, kuras ierosinātie noteikumi ir daudz stingrāki par jebkuriem Rietumos iedomātajiem un pakļauj mākslīgo intelektu valsts specifiskajām interesēm.

Rietumos esošo noteikumu vidū ir UNESCO rekomendācija par mākslīgā intelekta ētiku un Eiropas Padomes konvencija par mākslīgo intelektu, kā arī Baltā nama pagājušajā gadā publiskotais Mākslīgā intelekta tiesību akta projekts un topošais Eiropas Savienības (ES) Mākslīgā intelekta akts. Pēdējie ir divi lielākie šādi projekti Rietumos.

Daudzos no esošajiem noteikumu kopumiem ir kopīgas iezīmes. Vairums aicina ieviest lielāku skaidrību un caurskatāmību par to, kā mākslīgais intelekts pieņem lēmumus, kā arī pieprasa stingrāk aizsargāt cilvēku datus un nodrošināt neatkarīgu pārraudzību par automatizēto lēmumu pieņemšanu. Mērķis ir darīt cilvēkiem zināmu, kad viņi komunicē ar mākslīgo intelektu, un sniegt politikas veidotājiem un sabiedrībai lielāku skaidrību par šo sistēmu darbību, norādīts izdevuma "Politico" rakstā par centieniem regulēt mākslīgā intelekta tehnoloģijas.

ES centrālais datu regulators aprīļa pirmajā pusē pavēstīja, ka veido darba grupu, lai palīdzētu dalībvalstīm risināt ar sarunbotu "ChatGPT" saistītos jautājumus, un Eiropas politiķi aicināja Eiropas Komisijas (EK) prezidenti Urzulu fon der Leienu un ASV prezidentu Džo Baidenu noorganizēt samitu globālu standartu izstrādāšanai sarunbotiem un citiem mākslīgā intelekta instrumentiem.

Tikmēr joprojām nav skaidrs, vai maz iespējams universāls regulējums šīm tehnoloģijām un kāda būtu tā praktiskā puse, un kam tiktu uzticēts nodrošināt, lai mākslīgais intelekts ir objektīvs, patiess un pielāgojams dažādām valstīm un kultūrām.

"Ja mēs nevirzīsimies vienā virzienā attiecībā uz kaut ko tik svarīgu kā šis, mēs visi cietīsim," intervijā izdevumam "Politico" brīdināja Ekonomiskās sadarbības un attīstības organizācijas (ESAO) digitālās ekonomikas politikas nodaļas vadītāja Odrija Plonka, kuras komanda izstrādāja ESAO Mākslīgā intelekta principus, kas tiek uzskatīta par pagaidām plašāko Rietumu rokasgrāmatu par pieeju šai tehnoloģijai. Taču šie principi ir jau gandrīz piecus gadus veci, kas ir vesels mūžs mākslīgā intelekta attīstībā.

Mākslīgā intelekta attīstība norit strauji un, visticamāk, tikai uzņems apgriezienus. Tikmēr apsvērumi par šo inovāciju sociālajām sekām atpaliek, lai gan tie ir būtiskāki nekā jebkad agrāk. Uz šīm tehnoloģijām nedrīkst raudzīties tikai no praktiskā skatupunkta. Tikpat svarīga ir arī ētiskā puse un morālie apsvērumi, jo tieši tie atšķir mūs no mākslīgā intelekta.

Redaktors iesaka
Nepalaid garām
Uz augšu