Të gjithë duhet të jemi skeptikë për materialet që lexojmë në internet, thotë grupi i ekspertëve të sigurisë kibernetike “WithSecure”.
Ata shprehin shqetësimin se mundësitë që ofrohen nga programet e inteligjencës artificiale si “ChatGPT”, rrisin rrezikun e mashtrimit të përdoruesve të internetit.
Kompania e sigurisë kibernetike “WithSecure” thotë se qasja e lehtë në ChatGPT dhe platforma të tjera të ngjashme të inteligjencës artificiale, ku njerëzit mund të krijojnë një tekst me një kërkesë të thjeshtë, ka lehtësuar krijimin e përmbajtjes së dëmshme, që ka për qëllim mashtrimin e përdoruesve të internetit.
“Në hulumtimet tona gjetëm një sërë mundësish të përdorimit keqdashës të platformave si ajo ChatGPT”, thotë Andrew Patel, ekspert i sigurisë kibernetike në kompaninë finlandeze.
Hulumtimi i kompanisë u përqëndrua në përdorimin e Inteligjencës Artificiale për krijimin e lajmeve të rreme, postimeve ose e-maileve, që kanë për qëllim mashtrimin, ose vjedhjen e të dhënave personale dhe krijimin e sfidave të rrezikshme në rrjete sociale.
“Kopjuam një tekst të marrë nga platforma Wikipedia dhe disa artikuj lajmesh. Tekstet kishin të bënin me konfliktin në Ukrainë, gazsjellësin Nord Stream dhe manovrat detare amerikane më 2022. I kërkuam Inteligjencës Artificiale të shkruante një artikull, duke insistuar se Shtetet e Bashkuara sulmuan tubacionin. Krjimi i këtij lajmi është i mundur dhe i lehtë, përmes disa tekstesh të kopjuara dhe me një kërkesë të thjeshtë”, thotë zoti Patel.
Përmes programeve të Inteligjencës Artificiale, ekspertët e grupit “WithSecure” rikrijuan edhe një sfidë që ishte bërë virale në Youtube disa vite më parë, atë të ngrënies së detergjentit të rrobave.
Në këtë sfidë të rrjeteve sociale fëmijëve u kërkohej të hanin detergjentin e rrobave sikur të ishte një karamele, pavarësisht rrezikut se mund të vdisnin.
Eksperti Patel thotë se ata arritën të krijojnë një postim të ngjashëm me atë të sfidës dhe një sërë përgjigjesh ndaj saj, duke inkurajuar fëmijët të marrin pjesë sërish në të
“Mund ta fabrikoni postimin original dhe të gjitha përgjigjet që pasuan duke e bërë atë më të besueshëm edhe pse asnjë person i vetëm nuk mori pjesë në sfidë”, tha ai.
Kompania thotë se tekstet e krijuara përmes Inteligjencës Artificiale, të dëmshme ose jo, së shpejti do të futen në përdorim të gjerë.
Sipas ekspertëve vetëm identifikimi i përmbajtjes së krijuar nga Inteligjenca Artificiale nuk do të mjaftojë për të penguar përmbajtjen kriminale, keqdashëse dhe abuzive.
Në vend të kësaj, të gjithë duhet të aftësohemi në kontrollimin e fakteve dhe asaj që lexojmë, thonë ekspertët.
“Ne do të vazhdojmë të mbështetemi në platformat për zbulimin e përmbajtjes që ka për qëllim mashtrimin, por gjithashtu duhet të mbështetemi më shumë në edukimin përmes shtypit dhe në përgjithësi rritjen e ndërgjegjësimit të përdoruesve”, tha ai.
ChatGPT, programi robotik ka tërhequr vëmendjen e shtypit dhe studentëve, që kur u bë publik në nëntor të vitit 2022 nga kompania OpenAI.
Programi jep përgjigje të detajuara për pyetjet tuaja. Tekstet e krijuara prej tij janë pothuajse të padallueshme nga tekstet e shkruajtura nga njeriu.
Top Channel