Zapri oglas

Področje tehnologije ogrožajo številni dejavniki. Uporabniki se na primer bojijo zlonamerne programske opreme ali izgube zasebnosti. A po mnenju vplivnih osebnosti tehnološke industrije nas ne bi smel skrbeti toliko sam človeški dejavnik, temveč njegova povezava z umetno inteligenco. Na letošnjem Svetovnem gospodarskem forumu v Davosu so vodilni iz številnih velikih tehnoloških podjetij pozvali k zakonodajni ureditvi industrije. Kakšni so njihovi razlogi za to?

»Umetna inteligenca je ena najglobljih stvari, na katerih delamo kot človeštvo. Ima več globine kot ogenj ali elektrika,« je prejšnjo sredo na Svetovnem gospodarskem forumu dejal izvršni direktor podjetja Alphabet Inc. Sundar Pichai in dodal, da regulacija umetne inteligence zahteva globalni procesni okvir. K standardizaciji pravil glede uporabe umetne inteligence pozivata tudi direktorja Microsofta Satya Nadella in direktorica IBM Ginni Rometty. Po besedah ​​Nadelle je danes, pred več kot tridesetimi leti, nujno, da ZDA, Kitajska in Evropska unija vzpostavijo pravila, ki bodo določala pomen umetne inteligence za našo družbo in svet.

Poskusi posameznih podjetij, da bi vzpostavila lastna pravila etike za umetno inteligenco, so v preteklosti naleteli na proteste ne le zaposlenih v teh podjetjih. Google se je moral na primer leta 2018 po množičnem odzivu umakniti iz tajnega vladnega programa Project Maven, ki je uporabljal tehnologijo za analizo slik vojaških dronov. Stefan Heumann iz berlinskega think tanka Stiftung Neue Verantwortung v zvezi z etičnimi polemikami okoli umetne inteligence pravi, da morajo pravila postavljati politične organizacije, ne podjetja sama.

Pametni zvočnik Google Home uporablja umetno inteligenco

Trenutni val protestov proti umetni inteligenci ima jasen razlog za ta čas. V samo nekaj tednih mora Evropska unija spremeniti svoje načrte glede ustrezne zakonodaje. To bi lahko vključevalo na primer predpise o razvoju umetne inteligence v tako imenovanih sektorjih z visokim tveganjem, kot sta zdravstvo ali promet. V skladu z novimi pravili bi morala podjetja na primer v okviru preglednosti dokumentirati, kako gradijo svoje sisteme AI.

V povezavi z umetno inteligenco se je v preteklosti pojavilo že več škandalov – eden izmed njih je na primer afera Cambridge Analytica. V podjetju Amazon so prek digitalne asistentke Alexa zaposleni prisluškovali uporabnikom, poleti lani pa je znova izbruhnil škandal zaradi tega, ker je podjetje Google – oziroma platforma YouTube – zbirala podatke otrok, mlajših od trinajst let. brez soglasja staršev.

Medtem ko nekatera podjetja o tej temi molčijo, je Facebook po izjavi svoje podpredsednice Nicole Mendelsohn nedavno vzpostavil lastna pravila, podobna evropski uredbi GDPR. Mendelsohn je v izjavi dejal, da je to rezultat Facebookovega prizadevanja za globalno regulacijo. Keith Enright, ki je pri Googlu zadolžen za zasebnost, je na nedavni konferenci v Bruslju povedal, da podjetje trenutno išče načine, kako zmanjšati količino uporabniških podatkov, ki jih je treba zbrati. "Toda zelo razširjena priljubljena trditev je, da podjetja, kot je naše, poskušajo zbrati čim več podatkov," je še dejal in dodal, da je hramba podatkov, ki uporabnikom ne prinašajo nobene vrednosti, tvegana.

Zdi se, da regulatorji v nobenem primeru ne podcenjujejo varovanja uporabniških podatkov. Združene države trenutno delajo na zvezni zakonodaji, podobni GDPR. Na njihovi podlagi bi morala podjetja pridobiti soglasje svojih strank za posredovanje njihovih podatkov tretjim osebam.

Siri FB

Vir: Bloomberg

.