Deep falsifikon se çfarë është dhe si krijohet

  • Deep Fakes janë përmbajtje multimediale false që manipulojnë opinionin publik duke përdorur teknika të inteligjencës artificiale.
  • Ato krijohen duke zëvendësuar fytyrat ose zërat, dhe duke manipuluar fotografitë për të dezinformuar.
  • Ka qëllime dashakeqe pas Deep Fakes, si manipulimi social dhe ngacmimi personal.
  • Është thelbësore të zbulohet kjo përmbajtje duke kërkuar mospërputhje dhe duke rishikuar burimet e informacionit.

çfarë është një Fake e thellë

Për shkak të popullaritetit të mjeteve të krijimit të përmbajtjes së inteligjencës artificiale, po bëhet më e lehtë gjetja e imazheve, video ose audio të rreme që modifikojnë përmbajtjen origjinale për të keqinformuar përdoruesit. Kjo njihet si “Deep Fake” dhe sot ju tregoj gjithçka që duhet të dini për këtë trend.

Cilat janë "falsifikimet e thella"

Keanu Reeves Deep Fake

Një "Fake e thellë" është përmbajtje multimediale e krijuar për të mashtruar ose manipuluar opinionin publik. Përdorni fjalën «Deep” që vjen nga “Deep Learning” ose të mësuarit e thellë karakteristikë e modeleve gjuhësore të bazuara në inteligjencën artificiale dhe «Fake”, një fjalë angleze që do të thotë false në spanjisht.

Edhe pse modifikimi i dokumenteve për të dezinformuar njerëzit nuk është asgjë e re. Gjithmonë ka qenë e mundur të modifikohen imazhet për të dezinformuar njerëzit duke redaktuar fotografi me mjetet klasike të prerjes ose Photoshop-in aktual. Arsyeja pse tani është në buzët e të gjithëve është se ky dezinformim është bërë modë përmes përdorimit të përmbajtjes së krijuar përmes inteligjencës artificiale.

Prandaj ne e kuptojmë atë Një "Fake e thellë" është ajo përmbajtje, kryesisht të krijuara ose të ndihmuara me përdorimin e modeleve gjuhësore, që synon të përhapë dezinformata në media. Kjo është diçka që ne mund ta shohim në një mori mënyrash të ndryshme, disa nga format e përmbajtjes false ose "Deep Fake" me pasoja të rënda që do t'i shohim më poshtë.

Si krijohen “Deep Fakes”.

Deepfake e Robert Downey Jr dhe Tom Holland në Back to the Future

"Deep Fakes" krijohen me mjete të bazuara në inteligjencën artificiale të aftë për të zbuluar tiparet e fytyrave dhe trupave të njeriut. Kjo formë e dezinformimit ka shumë forma të ndryshme, por të gjitha po aq mashtruese. Le të shohim format më të zakonshme që gjejmë në "Deep Fakes"

  • Zëvendësoni njerëzit: Mund të gjeni video të rreme që duken të vërteta dhe ku personat që shfaqen janë fiktive ose thjesht janë zëvendësuar nga AI. Kjo shihet zakonisht në videot ku fytyra e një aktori zëvendësohet nga një tjetër, por mund t'i shohim edhe në vende të tjera, shumë më të dëmshme. Për shembull, mund të bëhet një fushatë shpifjeje kundër një politikani, për shembull, në mënyrë që ai të humbasë zgjedhjet.
  • Ndrysho zërin: Si në rastin e ndërrimit të fytyrës, e njëjta gjë ndodh edhe me zërin. Audioja e shpikur plotësisht mund të krijohet përmes një regjistrimi të thjeshtë zëri. Kjo është e rrezikshme për ata krijues të përmbajtjes, aktorë dhe njerëz të tjerë të famshëm, zërat e të cilëve janë në internet. Kjo është për shkak se çdokush mund të krijojë një audio që komprometon një person tjetër me sigurinë praktike se do të duhet ta mohojë atë informacion.
  • Manipulim me foto: Qoftë aktual apo i vjetër, fotografitë nuk janë të përjashtuara nga përparimet e teknologjive të bazuara në inteligjencën artificiale. Ne kemi mundur të shohim imazhe të Papës së Kishës Katolike të veshur me veshje reperi ose në një mori situatash. Shumë njerëz jashtë botës teknologjike u kanë besuar këtyre imazheve.

Cili është qëllimi prapa "Fakeve të thella"

Patate të krijuara nga AI

Për fat të mirë, ekziston një botë plot argëtim që është në gjendje t'i përdorë këto mjete për të bërë video qesharake ose meme në imazhe. Këto video me një prekje humoristike nuk synojnë të dëmtojnë askënd dhe ekzistojnë thjesht si argëtim. Problemi është qëllimi keqdashës i "Fakeve të thella".

Pra, qëllimi që na shqetëson është ai negativ, kur përpiqen të na mashtrojnë për të na bërë të ndryshojmë idetë dhe vlerat bazuar në gënjeshtra. Është e rëndësishme të theksohen dy tehe të ndryshme të së njëjtës thikë që janë "Falsirat e thella": manipulimi i masës dhe ngacmimi personal i institucioneve të caktuara.

Nga njëra anë, ne mund të mashtrohemi si grup apo masë njerëzish përmes dezinformatave të përhapura nga rrjetet apo televizionet. Kjo Ndikon në një nivel social dhe është shumë i rrezikshëm sepse mund të paragjykojë opinionin e një popullate të tërë.. Është një nga më të mëdhenjtë rreziqet e inteligjencës artificiale.

Megjithatë, jo vetëm që mund ta pësojmë këtë dezinformim si kolektiv, por edhe ne Ne mund të jemi viktima të mashtrimit ose mashtrimeve përmes këtij lloji të videove, imazheve dhe audiove të rreme.. Nëse dikush ka qëllimin e keq për t'ju shpifur, ai mund ta bëjë këtë lehtësisht nga kompjuteri duke krijuar një dokument audiovizual që ju vë në një situatë që dëmton jetën ose karrierën tuaj.

Si të zbuloni "falsifikimet e thella"?

shënime nga komuniteti Twitter për të zbuluar lajmet e rreme

Duke pasur parasysh këtë rrezik, ka një kërkesë të madhe për mjete për zbulimin e këtij lloji të përmbajtjes false. Për shembull në Twitter, për të shmangur këtë lloj dezinformimi, shtoi një veçori të quajtur "shënimet e komunitetit". Ky funksionalitet shërben për të paralajmëruar përdoruesit e tjerë për përmbajtje të rreme dhe funksionon shkëlqyeshëm brenda platformës blu.

Kjo është një mënyrë për të zbuluar lajmet e rreme në Twitter, por, Si mund t'i zbulojmë vetë këto lajme dhe përmbajtje të rreme? Për ta bërë këtë do të duhet t'i kushtojmë vëmendje detajeve dhe të shqetësohemi për informacionin që marrim. Prandaj, edhe pse ne ende nuk kemi një mjet plotësisht efektiv të aftë për të zbuluar "Fake të thella" si të tilla, ne e kemi. Ne mund të ndjekim këto këshilla për të dalluar përmbajtjen e krijuar nga Inteligjenca Artificiale.

Këshilla për të zbuluar përmbajtjen mashtruese

  • Kërkoni mospërputhje: Qoftë në foto dhe video ose audio. Mospërputhjet mund të shihen në teksturat e imazheve, lëvizjet në video ose ndryshimet në tonin dhe heshtjet në një bisedë audio. Në përgjithësi, këto mjete nuk janë në gjendje të riprodhojnë në mënyrë të përsosur përmbajtjen audiovizive, kështu që ne do të duhet t'i kushtojmë vëmendje detajeve.
  • Kontrolloni burimin: Nëse burimi nuk është i besueshëm ose nuk ka informacion për burimin, ka mundësi që informacioni të jetë i rremë.
  • Zbatime të jashtme: Ka aplikacione të jashtme që mund të na ndihmojnë të zbulojmë përmbajtjen e krijuar nga inteligjenca artificiale dhe për këtë arsye mund të parandalojnë konsumimin e kësaj përmbajtjeje. Por Këto mjete nuk funksionojnë gjithmonë dhe duhet të përditësohen vazhdimisht për shkak të rritjes së shpejtë të këtyre mjeteve.

Me pak fjalë, "Fake të thella" janë këtu për të qëndruar, të paktën derisa të ketë mjete mjaft të fuqishme për të zbuluar çdo lloj informacioni të rremë. Deri atëherë Ne do të jemi ata që do të duhet të kujdesemi se çfarë informacioni dhe media do të konsumojmë për të mos rënë në dezinformata.