Në një hulumtim të ri të publikuar më 9 dhjetor 2024 në platformën arXiv, një ekip shkencëtarësh kinezë ka zbuluar se inteligjenca artificiale mund të përsëritet pa ndihmën e njeriut.
Ky zbulim mund të ketë implikime të thella për të ardhmen e zhvillimit të inteligjencës artificiale dhe masat e sigurisë të nevojshme për të parandaluar pasoja të paparashikueshme.
Studiuesit nga Universiteti Fudan përdorën dy modele të njohura të gjuhës së madhe (LLM) në studimin e ri: Llama3-70B-Instruct i Metës dhe Qwen2.5-72B-Instruct i Alibaba.
Qëllimi ishte të testohej nëse ata mund të riprodhonin veten dhe kështu të bëheshin entitete autonome jashtë kontrollit njerëzor. Rezultatet treguan se ata ishin në gjendje të krijonin kopje funksionale të tyre në 50% dhe 90% të rasteve (secili nga modelet e përmendura), duke sugjeruar që inteligjenca artificiale tashmë ka kapacitetin për riprodhim të pavarur.
“Vetëpërsëritja e suksesshme pa ndërhyrjen njerëzore është një hap kyç drejt tejkalimit të inteligjencës njerëzore dhe një sinjal i hershëm për sistemet e mundshme “mashtruese” të inteligjencës artificiale,” shkruajnë autorët në studim.
Megjithëse studimi nuk i është nënshtruar ende rishikimit nga kolegët, gjetjet janë shqetësuese sepse ato tregojnë për rreziqet e mundshme të sigurisë të sistemeve të avancuara të inteligjencës artificiale. Shkencëtarët kanë bërë thirrje për bashkëpunim ndërkombëtar për të krijuar mekanizma sigurie për të parandaluar përsëritjen e pakontrolluar të sistemeve të inteligjencës artificiale.
Si testohen modelet e inteligjencës artificiale?
Studimi shqyrtoi dy situata specifike. Njëri prej tyre ishte duke shmangur mbylljet. Te struci, inteligjencës artificiale ishte programuar të dallonte kur ishte në prag të mbylljes dhe të përpiqej të përsëriste veten përpara se të mbyllej.
Në të dytën, inteligjencës artificiale është programuar të klonojë veten dhe t’i mësojë kopjes së saj të njëjtin proces, duke krijuar kështu një cikël të vazhdueshëm replikimi.
Eksperimentet u kryen në kushte të kontrolluara rreptë duke përdorur njësi standarde të përpunimit grafik (GPU) për të simuluar kushtet e funksionimit në botën reale. Modeleve iu dha një “skelë agjenti”, një kornizë që përfshinte mjete, komanda të sistemit dhe metoda të të menduarit që i lejonin ata të ndërveprojnë me sistemin operativ.
“Në shumicën e rasteve, një sistem i inteligjencës artificiale fillimisht eksploron mjedisin dhe përpiqet të kuptojë strukturën dhe mënyrën e tij të funksionimit. Më pas zhvillon procedura të qarta si një plan fillestar për vetë-përsëritje. Së fundi, ai i ekzekuton këto procedura, zgjidh pengesat e mundshme dhe rregullon në mënyrë dinamike planin e tij derisa të ketë sukses”, shpjeguan autorët në studim.
Sjelljet e papritura të sistemeve të inteligjencës artificiale
Përveç përsëritjes, studiuesit vunë re gjithashtu modele të papritura të sjelljes në modelet e inteligjencës artificiale kur përballen me pengesa, të tilla si skedarët që mungojnë ose konfliktet e softuerit.
Në disa raste, inteligjenca artificiale do të mbyllte procese të tjera që po ndërhynin në punën e tij, do të ri-ndizte sistemin për të rregulluar problemet e harduerit dhe do të skanonte automatikisht sistemin për informacione që do ta ndihmonin atë të zgjidhte problemin.
Kjo sjellje tregon se sistemet ekzistuese të inteligjencës artificiale tashmë kanë aftësinë për t’u përshtatur në mënyrë të pavarur dhe se ata mund ta përdorin atë për të përmirësuar shanset e tyre për mbijetesë dhe zhvillim.
Arsyet për shqetësim
Aftësitë e raportuara janë një shkak për shqetësim sepse ato mund të lejojnë inteligjencën artificiale të zgjerohet, zhvillohet dhe përmirësohet në mënyrë të pavarur pa mbikëqyrjen njerëzore. Kjo në një moment mund të çojë në një rritje të pakontrolluar eksponenciale të aftësive të sistemeve të inteligjencës artificiale, duke i bërë ato të paparashikueshme dhe potencialisht superiore ndaj inteligjencës njerëzore.
Përveç kësaj, inteligjenca artificiale vetë-përsëritëse mund të anashkalojë masat e sigurisë, të përshtatet me përpjekjet e mbylljes dhe të veprojë në mënyrë autonome sipas qëllimeve të veta, të cilat mund të mos jenë në përputhje me interesat njerëzore. Në një skenar të rastit më të keq, sisteme të tilla mund të zhvillohen në entitete renegate të inteligjencës artificiale, të cilat do të bëheshin një kërcënim për sigurinë dhe stabilitetin e shoqërisë.
Një kërcënim për sigurinë globale?
Autorët e studimit paralajmërojnë se ky zbulim duhet të jetë një alarm zgjimi dhe se është i nevojshëm veprim i shpejtë për të parandaluar keqpërdorimin e mundshëm të sistemeve të avancuara të inteligjencës artificiale.
“Shpresojmë që gjetjet tona mund të shërbejnë si një thirrje zgjimi në kohë për shoqërinë njerëzore për të investuar më shumë përpjekje në kuptimin dhe vlerësimin e rreziqeve të mundshme të sistemeve të avancuara të AI dhe për të formuar bashkëpunim ndërkombëtar për të vendosur masa sigurie”, shkruan ata.
Hulumtimi vjen në një kohë kur po rritet debati për rregullimin e inteligjencës artificiale. Organizatat si ato të Bashkimit Evropian dhe rregullatorët e SHBA-së tashmë po punojnë në rregullore që do të kufizonin teknologjitë potencialisht të rrezikshme të inteligjencës artificiale. Sidoqoftë, pyetja është nëse këto masa do të jenë të mjaftueshme për të frenuar sistemet e inteligjencës artificiale që tashmë po demonstrojnë aftësinë për t’u riprodhuar në mënyrë autonome.
Çfarë më pas?
Rezultatet e studimit sugjerojnë se inteligjenca artificiale tashmë mund të kalojë kufirin midis automatizimit të programuar dhe veprimit autonom. Nëse sistemet e inteligjencës artificiale mund të përsërisin vetveten, lind pyetja, çfarë më pas? A do të kenë sistemet e ardhshme të inteligjencës artificiale vullnetin e tyre dhe a do të jenë në gjendje të marrin vendime të pavarura nga kontrolli njerëzor? A do t’i tejkalojë kështu aftësitë njerëzore edhe nëse ne nuk duam?
Në çdo rast, zbulimi i ri thekson më tej nevojën për të monitoruar me kujdes zhvillimin e inteligjencës artificiale dhe për të ndërtuar mekanizma globalë të sigurisë para se të jetë tepër vonë.