11.1 C
Pristina
Monday, March 16, 2026

TikTok dhe Meta rrezikuan sigurinë për të fituar garën e algoritmeve

Gjigantët e rrjeteve sociale morën vendime që lejuan më shumë përmbajtje të dëmshme në faqet e përdoruesve të tyre, pasi kërkimet e brendshme mbi algoritmet e tyre kishin treguar se zemërimi dhe indinjata rrisnin angazhimin.

BBC shkruan se më shumë se një duzinë sinjalizuesish dhe personash nga brenda kompanive kanë zbuluar se si këto kompani morën rreziqe për sigurinë në çështje si dhuna, shantazhi seksual dhe terrorizmi ndërsa konkurronin me njëra-tjetrën për vëmendjen e përdoruesve.

Një inxhinier në Meta, kompania që zotëron rrjetet sociale Facebook dhe Instagram, përshkroi se si menaxhmenti i lartë i kishte thënë të lejonte më shumë përmbajtje të dëmshme “në kufi” në feed-et e përdoruesve (duke përfshirë edhe mizogjininë dhe teoritë konspirative) për të konkurruar me TikTok-un.

“Ata në njëfarë mënyre na thanë se kjo po bëhej sepse çmimi i aksioneve po binte,” tha inxhinieri.

Një punonjës i TikTok-ut nga ana tjetër, i dha BBC-së akses të rrallë në panelin e brendshëm të kompanisë për ankesat e përdoruesve, si dhe prova të tjera se si stafi ishte udhëzuar të jepte përparësi disa rasteve që përfshinin politikanë, në vend të një sërë raportimesh për postime të dëmshme që përfshinin fëmijët.

Vendimet po merreshin për të “ruajtur një marrëdhënie të fortë” me figurat politike për të shmangur kërcënimet për rregullim ose ndalime, jo për shkak të rrezikut ndaj përdoruesve, tha punonjësi i TikTok-ut.

Sinjalizuesit që folën për dokumentarin e BBC-së me titull “Inside the Rage Machine” ofrojnë një pamje nga afër se si industria reagoi pas rritjes shpërthyese të TikTok-ut, algoritmi shumë tërheqës i të cilit për rekomandimin e videove të shkurtra tronditi rrjetet sociale dhe i la rivalët të përpiqeshin të kapnin ritmin.

Një studiues i lartë i Meta-s, Matt Motyl, tha se konkurruesi i kompanisë ndaj TikTok-ut, Instagram Reels, u lançua në vitin 2020 pa masa të mjaftueshme mbrojtëse. Kërkimi i brendshëm i ndarë me BBC-në tregoi se komentet në Reels kishin shumë më tepër raste bullizmi dhe ngacmimi, gjuhë urrejtjeje dhe dhune ose nxitjeje për dhunë sesa pjesët e tjera të Instagram-it.

Kompania investoi në 700 punonjës për të zhvilluar Reels, ndërsa ekipeve të sigurisë iu refuzuan dy specialistë për mbrojtjen e fëmijëve dhe 10 të tjerë për integritetin e zgjedhjeve.

Motyl i dha BBC-së dhjetëra dokumente kërkimore që ai i përshkroi si “dokumente të nivelit të lartë që tregojnë shumë lloje dëmesh ndaj përdoruesve në këto platforma”. Mes tyre kishte prova që tregojnë se Facebook ishte i vetëdijshëm për problemet e shkaktuara nga algoritmi i tij.

Algoritmi u ofronte krijuesve të përmbajtjes një “rrugë që maksimizon fitimet në kurriz të mirëqenies së audiencës së tyre” dhe se “sistemi aktual i stimujve financiarë që krijojnë algoritmet tona nuk duket se përputhet me misionin tonë” për të afruar botën më shumë.

Studimi thoshte se Facebook mund “të zgjedhë të qëndrojë pasiv dhe të vazhdojë t’u japë përdoruesve përmbajtje ‘fast-food’, por kjo funksionon vetëm për një kohë”.

Në përgjigje të pretendimeve të sinjalizuesve, Meta tha: “Çdo sugjerim se ne qëllimisht përforcojmë përmbajtje të dëmshme për përfitim financiar është i gabuar.”

TikTok po ashtu tha se këto ishin “pretendime të sajuara” dhe se kompania investon në teknologji që parandalon shikimin e përmbajtjes së dëmshme.

Algoritmet janë një “kuti e zezë”, funksionimi i brendshëm i së cilës është i vështirë për t’u analizuar, tha Ruofan Ding, i cili punoi si inxhinier i “machine learning” duke ndërtuar motorin e rekomandimeve të TikTok-ut nga viti 2020 deri në 2024-ën.

Ai tha se ishte e vështirë të ndërtoheshin sisteme të tilla që të ishin plotësisht të sigurta.
“Nuk kemi kontroll mbi vetë algoritmin.”

Inxhinierët nuk i kushtojnë shumë vëmendje përmbajtjes së postimeve, tha ai.
“Për ne, e gjithë përmbajtja është thjesht një ID, një numër tjetër.”

Ai tha se mbështeteshin te ekipet e sigurisë së përmbajtjes për të siguruar që postimet e dëmshme të hiqeshin në mënyrë që algoritmi të mos i promovonte, duke e krahasuar këtë me ekipe të ndryshme që punojnë në pjesë të ndryshme të një makine.

BBC shkruan se në një rast, një figurë politike që ishte tallur duke u krahasuar me një pulë u trajtua me përparësi më të lartë se një 17-vjeçar që raportoi bullizëm kibernetik dhe një 16-vjeçare në Irak që tha se po shpërndaheshin imazhe të seksualizuara që pretendonin se ishin të sajat.

Një punonjës i Tiktok, i quajtur thjesht “Nick” në këtë artikull, tha se kompania kujdeset më shumë për të ruajtur një “marrëdhënie të fortë” me politikanët dhe qeveritë për të shmangur rregullore ose ndalime që do të dëmtonin biznesin.

Këshilla e tij e drejtpërdrejtë për prindërit me fëmijë që përdorin TikTok-un është: “Fshijeni atë dhe mbajini sa më larg aplikacionit për aq kohë sa të jetë e mundur.”

spot_imgspot_img
Klikoni KËTU për t’u bërë pjesë e kanalit zyrtar të ATVLIVE.TV në Viber.

Bëni Subscribe në kanalin zyrtar të ATV-së në YouTube – Kliko KËTU

LAJME TË TJERA

spot_img
spot_img
spot_img
spot_img

PUBLIKUAR SË FUNDI

spot_img
spot_img

LAJME TË TJERA