Dezinformări rețele sociale
Data postării: 30.05.2024
www.factual.ro
FALS | SUA ar avea în derulare proiectul SkyBeam

Un utilizator Facebook a postat un reel care pare extras, la prima vedere, dintr-un documentar. În reel se vorbește despre proiectul SkyBeam, menționându-se existența unor holograme extraterestre și presupuse pericole care ar urma să afecteze tot globul anul acesta. Conținutul postării face legătura între proiect și o presupusă invazie extraterestră masivă.

 

„În anul 2024, un eveniment global va schimba cursul viitorului umanității.

Lumea va asista la o invazie extraterestră masivă.”  – încheie persoana din reel.

 

„V-am avertizat ce plan diabolic au americanii! REȚINEȚI CU MARE ATENȚIE!! HOLOGRAMELE EXTRATERESTRE pentru 2024!” – este menționat, de asemenea, în reel.

 

Afirmațiile prezentate în reel sunt false. Persoana care le prezintă este generată cu ajutorul tehnologiei AI, fiind un deepfake. În plus, proiectul SkyBeam este prezentat trunchiat, cu informații scoase din context. Mai departe, arătăm și de ce.

 

Ce este proiectul SkyBeam

 

Proiectul SkyBeam a fost inițiat de către Space Applications Services, o companie belgiană independentă fondată în 1987.

 

Scopul companiei este să cerceteze și să dezvolte sisteme, soluții și produse inovatoare și să furnizeze servicii piețelor aeronautice, de securitate și industriilor conexe la nivel global. Potrivit unui articol care prezintă rezultatele obținute, SkyBeam este derulat de o echipă de cercetători care investighează asamblarea unor sisteme de captare a energiei solare direct din spațiu, la scară de kilometri, folosind tehnologie europeană.

 

Potrivit videoului de prezentare, rezultatul cercetării este o tehnologie care se asamblează în spațiu și captează constant energia solară cu ajutorul unor rețele ample de panouri solare și oglinzi.

 

Despre deepfake

 

Conform UVA Information Security, un deepfake este o imagine artificială sau un video generat de un tip special de machine learning (subset al inteligenței artificiale), numit deep learning. Acesta funcționează prin stocarea de către algorimi a unor exemple iar, mai apoi, acesta învață să le reproducă în mod fidel.

 

Odată cu dezvoltarea continuă a inteligenței artificiale, identificarea unui deepfake devine din ce în ce mai dificilă. Conform unui articol publicat de către Associated Press, în cazul unui videoclip falsificat, ceea ce putem observa sunt caracteristicile/gestica denaturate ale persoanelor. În cazul acestui reel, se poate observa că atât persoana, cât și buzele acesteia se mișcă într-un mod artificial și ochii îi sunt închiși permanent în timp ce vorbește.

Conform aceluiași articol, un alt mijloc pentru identificarea deepfake-urilor sunt platformele dedicate. Microsoft a creat o unealtă de acest fel care identifică atât fotografii, cât și videoclipuri manipulate cu AI însă nu este disponibilă publicului larg în momentul de față.

SEO optimized by sem.ro SEO agency.