Sulje mainos

Deepfake - tekniikka, joka mahdollistaa ihmisten kasvojen korvaamisen valokuvissa ja videoissa jonkun toisen kasvoilla, on kehittynyt viime vuosina muotoon, jossa ero todellisen materiaalin ja väärennetyn datan välillä on yhä monimutkaisempi. Esimerkiksi pornografista sisältöä sisältävillä sivustoilla deepfakea käytetään luomaan kiehtovia videoita kuuluisien näyttelijöiden kaltaisilla. Kaikki tämä tapahtuu tietysti ilman hyökättyjen persoonallisuuksien suostumusta, ja koneoppimista hyödyntävän teknologian kehittyvän kehittymisen ansiosta pelot sen mahdollisista väärinkäytösten muista muodoista leviävät. Uhka siitä, että syväväärennös voisi täysin huonontaa digitaalisia tietueita todisteina oikeudenkäynneissä, on todellinen ja roikkuu oikeussektorin yllä Damokleen miekan tavoin. Hyvät uutiset tulevat nyt Truepicilta, jossa he ovat keksineet yksinkertaisen tavan varmistaa listausten aitous.

Sen luojat kutsuivat uutta teknologiaa Foresightiksi, ja sen sijaan, että se tekisi lisävideoanalyysiä ja määrittäisi, onko kyseessä syväfake, se käyttää yksittäisten tallenteiden linkittämistä laitteistoon, jolla ne on luotu aitouden varmistamiseksi. Foresight merkitsee kaikki tietueet, kun ne luodaan, erityisellä salattujen metatietojen joukolla. Tiedot tallennetaan yleisissä muodoissa, sivun esikatselussa Android Valvoa yritys osoitti, että tällä tavalla suojattu kuva voidaan tallentaa JPEG-muotoon. Joten ei ole pelkoa yhteensopimattomista tietomuodoista.

Mutta tekniikka kärsii pienten kärpästen rivistä. Suurin lienee se, että tiedostot eivät vielä tallenna niihin tehtyjä muutoksia. Ratkaisu on ottaa mukaan useampia yrityksiä, jotka tukisivat tätä turvamenetelmää. Teknologian menestys määräytyy siis pääosin suurimpien kamera- ja mobiililaitteiden valmistajien, Samsungin ja Applem. Pelkäätkö, että joku voi väärinkäyttää ulkonäköäsi? Jaa mielipiteesi kanssamme artikkelin alla olevassa keskustelussa.

Tämän päivän luetuin

.