China conduce Europa în AI cu publicarea ghidului etic

Ministerul chinez al științei și tehnologiei a publicat orientări etice care vor reglementa modelele de inteligență artificială (AI). Utilizatorii vor avea drepturi depline de a accepta și de a respinge serviciul unei AI, precum și de a înceta interacțiunile și operațiunile în timpul liber cu unul dintre aceste sisteme în orice moment doresc.

În acest fel, Beijingul este înaintea Uniunii Europene, care apără nevoia de evoluții ale AI care au pus omul în centru de luni de zile. Comisia a prezentat un proiect de regulament privind ia în luna aprilie a acestui an. Spania a propus realizarea unui proiect-pilot al prezentului regulament, iar agenții din sectorul privat au solicitat deja acest lucru.

 

Potrivit South China Morning Post, cu liniile directoare publicate de Guvernul Xi Jinping, oamenii vor avea „putere deplină de luare a deciziilor”. Acest cadru etic la care modelele funcționale sau în curs de Dezvoltare AI vor trebui să adere, de asemenea, se aliniază obiectivelor gigantului asiatic: China vrea să fie lider în inteligența artificială până în 2030, amintește ziarul.

Premisa din spatele acestor orientări este clară „” asigurându-vă că AI este întotdeauna sub control uman.”Rebecca Arcesati, analist la un think tank German numit Institutul Mercator pentru studii din China, explică în South China Morning Post că aceasta este prima abordare a guvernului chinez spre realizarea unui ai etic.

Documentul a fost botezat ca specificații etice pentru inteligențele artificiale de nouă generație și a fost publicat, încă ca proiect, de o comisie a Ministerului Chinez al științei și tehnologiei care a fost constituită în februarie 2019. În luna iunie a acelui an, această comisie a publicat deja un prim document cu unele orientări ceva mai scurte decât cele cunoscute acum.

Modele AI” controlabile „și”fiabile”
În șase puncte distincte, noul document al regimului chinez subliniază importanța modelelor AI „controlabile” și ” fiabile.”Alte principii menționate în text ridică necesitatea ca această tehnologie să fie utilizată pentru a îmbunătăți bunăstarea umană, pentru a promova transparența și justiția sau pentru a proteja confidențialitatea și securitatea.

Arcesati subliniază în declarațiile către South China Morning Post că publicarea acestor linii directoare este” un mesaj clar ” pentru giganții tehnologici precum Amazon, Facebook sau Google din SUA. Mai presus de toate, acelor companii care „și-au bazat modelul de afaceri pe algoritmi de recomandare””

Aceste orientări ridică, de asemenea, necesitatea de a evita riscurile inutile în aplicarea acestor ia pentru a se asigura că acestea nu prezintă vulnerabilități sau lacune de securitate, precum și care nu sunt utilizate în activități ilegale, ilegale sau care pot compromite sau „securitatea națională” sau „interesul general”.

Cu câteva zile în urmă, la un forum de specialisti in sisteme AI, Gemma Galdon, fondator și director al Eticas, un nume dat atât o consultanta si o fundație dedicată algoritmică de audit, a făcut câteva note cu privire la răscruce de drumuri Europene și necesitatea ca Administrația Publică să aibă etice algoritmi.

Același software pentru toți clienții
În discursul său, Galdon a reamintit că una dintre principalele provocări care împiedică implementarea sistemelor etice AI este un eșec al pieței: se fac încercări de a scala același software pentru toate tipurile de clienți. În plus, el a reamintit că piața tehnologică este încă orientată spre satisfacerea consumului și nu spre rezolvarea problemelor sociale reale.

La acea răscruce de drumuri, și în fața consumatorului model de tehnologie încorporată în Silicon Valley, Galdon prezentat, de asemenea, alternativă care are loc în alte blocuri de pe planeta: desfășurarea de sisteme tehnologice pentru autoritar scopuri, cu AI sisteme concepute pentru a garanta mari platforme de supraveghere în masă.

Între timp, activiștii din Europa continuă să ceară ca Uniunea să interzică platformele de supraveghere în masă care utilizează recunoașterea facială în viitoarea sa reglementare AI.

Lasă un răspuns

Adresa ta de email nu va fi publicată.