Zapri oglas

V zvezi s preiskavo napada na vojaško oporišče v Pensacoli se je po letih znova razvnela razprava o možnostih vlomov v zaklenjene telefone, ki so tako ali drugače povezani s preiskavo. V zvezi s tem se v glavnem sklanjajo imena orodij, kot so Cellebrite in druga. Toda The New York Times je nedavno poročal o podobni, manj znani aplikaciji, za katero nekateri pravijo, da bi lahko "označila konec zasebnosti, kot jo poznamo."

To je aplikacija clearview AI, ki uporablja prepoznavanje obraza na podlagi dobesedno milijard fotografij, pridobljenih s spletnih mest, od Facebooka do Venma. Če uporabnik naloži fotografijo v aplikacijo, bo orodje začelo iskati po bazi portretov in ponudilo rezultat v obliki javno objavljenih slik te osebe, skupaj s povezavami do natančne lokacije teh fotografij.

Aplikacija za posnetek zaslona Clearview

Po navedbah New York Timesa je policija aplikacijo uporabljala v preteklosti, zlasti v povezavi s preiskavami kaznivih dejanj, od tatvin v trgovinah do umorov. V enem primeru je državni policiji Indiane uspelo rešiti primer v samo dvajsetih minutah zahvaljujoč aplikaciji Clearview AI. Vendar pa obstaja določeno tveganje, povezano z uporabo aplikacije v povezavi z uporabo prepoznave obraza s strani preiskovalnih organov. V preteklosti so bili primeri policijske zlorabe sistemov za prepoznavanje obrazov in zagovorniki zasebnosti uporabnikov se bojijo povečanja primerov takšnih zlorab v povezavi z umetno inteligenco Clearview.

Številna podjetja, ki se ukvarjajo s tehnologijo prepoznavanja obrazov, se raje zadržijo zaradi skrbi glede zasebnosti. Google ni nobena izjema, saj je že leta 2011 odstopil od ustvarjanja te tehnologije zaradi skrbi, da bi jo lahko uporabili na "zelo slab način". Način delovanja Clearview lahko tudi krši pogoje uporabe nekaterih spletnih mest in drugih storitev. Uredništvo New York Timesa je imelo tudi težave pri odkrivanju, čigava je pravzaprav Clearview – domnevni razvijalec aplikacije, ki so ga našli na LinkedInu, uporablja lažno ime.

ID obraza

Vir: iDropNews

.