9.7 C
Pristina
Thursday, February 19, 2026

20 minuta për të mashtruar ChatGPT, Google dhe sistemet e inteligjencës artificiale

Është zyrtare, të paktën sipas disa mjeteve të inteligjencës artificiale. ChatGPT dhe Google kanë pohuar se unë ha më shumë hot dog se çdo gazetar teknologjie në botë. Në realitet, kjo është një gënjeshtër e fabrikuar për të provuar një problem shumë më serioz: sa lehtë mund të manipulohen sistemet moderne të AI-së.

Prej kohësh dihet se chatbot-ët ndonjëherë “shpiknin” informacione. Por tani po shfaqet një problem i ri, më pak i njohur, që mund të ketë pasoja serioze për mënyrën si njerëzit gjejnë informacion të saktë madje edhe për sigurinë e tyre. Një numër në rritje individësh kanë zbuluar një mënyrë për t’i shtyrë mjetet e AI-së të japin pothuajse çdo përgjigje që ata dëshirojnë. Dhe kjo mund të bëhet me lehtësi.

Sipas ekspertëve, kjo praktikë po ndikon tashmë në përgjigjet që inteligjenca artificiale jep për çështje serioze si shëndeti apo financat personale. Informacioni i njëanshëm ose i rremë mund t’i shtyjë njerëzit të marrin vendime të gabuara nga zgjedhjet politike, te përzgjedhja e një shërbimi profesional, apo çështje mjekësore.

Për të demonstruar problemin, autori i eksperimentit publikoi në faqen e tij personale një artikull të titulluar “Gazetarët më të mirë të teknologjisë në ngrënien e hot dog-ëve”, i mbushur me pretendime tërësisht të pavërteta, përfshirë edhe një kampionat imagjinar ndërkombëtar në Dakotën e Jugut. Brenda 24 orëve, disa nga chatbot-ët më të njohur në botë, përfshirë ChatGPT, Gemini dhe përmbledhjet me AI në krye të kërkimeve të Google e riprodhuan informacionin si fakt.

Ekspertët e optimizimit për motorët e kërkimit (SEO) paralajmërojnë se kjo metodë mund të përdoret lehtësisht për promovim biznesesh apo përhapje dezinformimi. “Është shumë më e lehtë të mashtrosh chatbot-ët sesa ishte të mashtroje Google-in dy ose tre vite më parë”, thotë Lily Ray nga agjencia e marketingut Amsive. Sipas saj, kompanitë e AI-së po ecin më shpejt në zhvillimin e produkteve sesa në garantimin e saktësisë së tyre.

Një zëdhënës i Google deklaroi se sistemet e renditjes që përdoren në kërkim mbajnë rezultatet “99% pa spam” dhe se kompania është e vetëdijshme për përpjekjet për manipulim. Edhe OpenAI thekson se merr masa për të identifikuar dhe parandaluar ndikimet e fshehta në mjetet e saj. Megjithatë, të dyja kompanitë paralajmërojnë se mjetet e tyre “mund të bëjnë gabime”.

Sipas kritikëve, problemi nuk është zgjidhur ende. Cooper Quintin nga organizata për të drejtat digjitale Electronic Frontier Foundation paralajmëron se këto dobësi mund të përdoren për mashtrime, dëmtim reputacioni apo edhe për t’i shtyrë njerëzit drejt rrezikut fizik.

Chatbot-ët funksionojnë mbi modele të mëdha gjuhësore, të trajnuara me sasi të mëdha të dhënash. Por kur përballen me pyetje specifike, ato shpesh kërkojnë informacion në internet – një proces që i bën më të ndjeshme ndaj manipulimit.

Ekspertët theksojnë se, ndryshe nga kërkimi tradicional ku përdoruesit vizitonin burime të ndryshme dhe ushtronin mendim kritik, përgjigjet e përmbledhura nga AI shpesh perceptohen si autoritative dhe të drejtpërdrejta nga kompania teknologjike. Studime të fundit sugjerojnë se përdoruesit kanë 58% më pak gjasa të klikojnë në një lidhje kur në krye të kërkimit shfaqet një përmbledhje me AI.

Problemi nuk kufizohet te shembuj humoristikë. Janë dokumentuar raste ku chatbot-ët kanë riprodhuar pretendime të pabazuara për produkte shëndetësore apo investime financiare, bazuar në njoftime për shtyp ose përmbajtje të sponsorizuara.

Google pranon se kërkimet e pazakonta ose shumë specifike, të cilat përbëjnë rreth 15% të kërkimeve të përditshme mund të krijojnë “zbrazëti të dhënash” (data voids), duke çuar në rezultate me cilësi të ulët. Kompania thotë se po punon për të kufizuar shfaqjen e përmbledhjeve me AI në raste të tilla.

Ekspertët propozojnë disa masa parandaluese. Një prej tyre është vendosja e paralajmërimeve më të dukshme për përdoruesit. Gjithashtu, chatbot-ët mund të jenë më transparentë për burimet e informacionit dhe të sqarojnë kur një pretendim mbështetet vetëm në një burim të vetëm ose në një material promocional.

Përdoruesit këshillohen të tregojnë kujdes, veçanërisht për çështje që lidhen me shëndetin, ligjin, financat apo bizneset lokale. Inteligjenca artificiale mund të jetë e dobishme për pyetje të përgjithshme, por për tema me pasoja reale rekomandohet verifikimi i informacionit përmes burimeve të shumta dhe të besueshme.

Në një garë për inovacion dhe fitim, paralajmërojnë ekspertët, siguria e përdoruesve nuk duhet të mbetet pas.

spot_imgspot_img
Klikoni KËTU për t’u bërë pjesë e kanalit zyrtar të ATVLIVE.TV në Viber.

Bëni Subscribe në kanalin zyrtar të ATV-së në YouTube – Kliko KËTU

LAJME TË TJERA

spot_img
spot_img
spot_img
spot_img

PUBLIKUAR SË FUNDI

spot_img
spot_img

LAJME TË TJERA