Știri

Cele 3 legi asimoviene ale roboticii chiar există. Și se aplică – doar că sunt 5. Și altele.

Isaac Asimov a scris cele trei legi ale roboticii în 1942 (seria Roboții o găsești la Paladin, aici) – dar, firește, nu avea cum să prevadă și revoluția software, așa că legile sale nu mai sunt tocmai adecvate.

Prima Lege, „Un robot nu poate răni o ființă umană sau, prin inacțiune, să permită ca o ființă umană să fie rănită”, poate părea clară, dar simplitatea sa ascunde provocări etice în ziua de azi. Dacă o mașină fără șofer, implicată într-un accident, alege să lovească un copil în loc de un grup de adulți? E ok? Nu este o glumă, chiar era un scandal prin presă că Mercedes și-ar programa mașinile automate să sacrifice pietonii (care nu-și permit Mercedes, aș remarca eu) ca să-și salveze șoferii (care-și permit).

A Doua Lege a lui Asimov, „Un robot trebuie să se supună ordinelor date de ființele umane, cu excepția cazului în care aceste ordine ar intra în conflict cu prima lege”, ar putea fi curând imorală, într-o lume viitoare cu IA-uri cu conștiință de sine. Dacă au conștiință de sine, nu au dreptul și la libertate de conștiință? O dezbatere destul de complicată…

A Treia Lege: „Un robot trebuie să își protejeze propria existență, atâta timp cât această protecție nu intră în conflict cu Prima sau a Doua Lege”, pare mult mai puțin controversată, mai ales pentru cei care nu au trăit în vreo peșteră în ultimele decenii și au vizionat măcar seria Terminator. Problema aici e alta: nu roboții sunt pericolul la adresa oamenilor, ci tot oamenii. Mai exact cei care le pot exploata vulnerabilitățile, pentru a-i folosi împotriva altor oameni.

În realitate, roboții de azi și, mai ales, din viitor, sunt mai puțin mașinăriile de metal sau plastic, așa cum îi vedeau sefiștii din anii 50, și mai degrabă softul care-i animă. În esență, roboții sunt mai degrabă linii de cod – și degeaba s-ar supune legilor asimoviene utilajul, dacă nu se supune și softul.

Iar liniile de cod pot fi alterate. De oameni.

Așa că poate nu-i surprinzător, dar deja există și se aplică alte 5 legi – cel puțin în Israel, conform lui Oded Karev, specialist în software de automatizare. El a formulat și folosește în procesele de robotizare un cod numit REF – Robo-Ethical Framework (Codul Etic al Roboticii). Conceput nu pentru a apăra oamenii de roboți, ci… roboții de oameni (care vor să-i folosească împotriva altor oameni).

Poate că ar fi bine să fie preluate de ONU și extinse global? Vom vedea ce ne rezervă viitorul – deocamdată să vedem legile!

Prima Lege: Roboții trebuie să fie proiectați doar pentru a avea un impact pozitiv. Luând în considerare impactul social, economic și de mediu, fiecare proiect care va implica roboți ar trebui să aibă cel puțin un scop pozitiv clar definit. Pare evident? Nu e. De exemplu, Rusia și China au alte planuri – și dacă pentru Moscova invadarea vecinilor cu roboți ucigași o fi scop pozitiv, pentru noi prin Europa de Est cert nu-i.

A Doua Lege: Roboții trebuie să fie proiectați să nu țină cont de identitățile de grup. Poate pare cam prea SJW, dar nu-i. O companie americană ce folosea IA pentru a selecta CV-uri a descoperit că nu mai angaja pe nimeni de culoare. De ce? IA-ul văzuse statistic faptul că doritorii din unele cartiere avuseseră în trecut rata foarte mică de calificare, așa că-i elimina din start. O concluzie matematică perfect rațională, bazată pe statistici. Din anii 50-60, când funcționa segregarea – dar robotul nu știe să interpreteze și contextul datelor. Ce zic ele matematic, aia crede. Dar dacă vii azi din acel cartier și totuși ai făcut o școală, poate în cartierul vecin? Și ești calificat, dar practic nu mai exiști? Sună puțin PKD, nu?

A Treia Lege: Roboții trebuie să fie proiectați pentru a reduce la minim riscul de vătămare individuală. Adică algoritmii, procesele și deciziile încorporate în roboți ar trebui să fie transparente, iar oamenii să le poată audita și controla. Dacă un robot pune în pericol un om într-o situație individuală, alt om ar trebui să poată verifica și corecta procesele, pentru a preveni incidentele viitoare.

Aici, zic eu, e cam Prima Lege de Asimov, doar că ceva mai flexibilă (spre binele robotului, care nu ar mai risca direct dezasamblarea, ci doar reprogramarea rutinei vinovate).

A Patra Lege: Roboții trebuie să funcționeze doar pe date din surse verificate. Roboții ar trebui să funcționeze numai pe baza unor date din surse cunoscute, de încredere și declarate transparent, cu garantarea posibilității de a ajunge la sursa originală. Aici probabil chinezii vor plânge puțin, dar vor fi evitate și multe scenarii cyberpunk…

A Cincea Lege: Roboții trebuie să fie proiectați pentru a fi controlabili și administrabili. În traducere, administrabili adică utilizatorul uman să fie informat corect despre toate aptitudinile și limitările sistemului – și aici rămânem fără multe scenarii SF, când robotul poate mai multe decât știe stăpânul…

Iar controlabili în sensul că accesul la ei trebuie să fie doar cu autentificare și să aibă sisteme de apărare, care să monitorizeze și să alerteze când se încearcă editarea softului. O idee de bun-simț, de altfel, dar deloc obligatorie azi.


surse:

diginomica.com (The five laws of robotic software automation de Chris Middleton)

newsweek.com (Russia Is Building an Army of Robot Weapons, and China’s AI Tech Is Helping)

businessinsider.com (Why Mercedes plans to let its self-driving cars kill pedestrians in dicey situations)

Imagine reprezentativă de Stefan Keller de la Pixabay

%d blogeri au apreciat: