ISAAC ASIMOV – Il “profeta” della robotica
Un giorno le macchine riusciranno a risolvere tutti i problemi, ma mai nessuna di esse potrà porne uno.
(Albert Einstein)
Le tre leggi della robotica
“Volete ascoltare le tre leggi della robotica? Dicono sia una presentazione molto accattivante”. È la prima frase che Andrew, l’umanoide protagonista del film “L’Uomo Bicentenario”, rivolge alla famiglia che lo ha acquistato per utilizzarlo come robot di servizio.
Formulate da Isaac Asimov, uno dei padri della narrativa fantascientifica, le tre leggi della robotica furono pubblicate per la prima volta nel 1942 nel racconto “Circolo vizioso”, apparso sulla rivista specializzata statunitense Astounding Science Fiction.
Nei romanzi dello scrittore russo-americano, le tre leggi della robotica governano il comportamento dei cosiddetti robot positronici, macchine create per servire l’uomo, dotate di sistemi di sicurezza per non nuocergli.
I robot non sono una minaccia
Si tratta di principi rigidi, da non trasgredire, teorizzati per rassicurare l’umanità sulle buone “intenzioni” dei robot. Vediamo cosa dicono:
Prima Legge: “Un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno”.
Seconda legge: “Un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge”.
Terza legge: “Un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge”.
Successivamente l’autore di “Io Robot” ne aggiungerà una quarta, superiore per importanza a tutte le altre ma valida solo per gli automi più sofisticati, definita legge zero: “Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno”.
Per ora solo una suggestione
Questo su un piano squisitamente letterario. Trasferite nella realtà, le tre leggi della robotica non trovano almeno per il momento alcuna applicazione. Seppure avanzatissimi, i robot – come li conosciamo oggi – non hanno nulla a che vedere con le creature pensanti, e in alcuni casi dotate di coscienza, descritte da Isaac Asimov. Non hanno bisogno di essere educati al bene semplicemente perché non pensano da soli ma sono programmati dall’uomo. Un androide è oggi una macchina programmabile e la sua dipendenza da noi è ancora molto stretta. Non sappiamo fino a quando sarà così. Le leggi di Asimov e la roboetica, l’etica della robotica, restano per ora su un piano teorico, astratto. Non sarà sempre così. Per intuirlo basta dare uno sguardo ai progressi dell’intelligenza artificiale e del deep learning.
A confermare l’attuale inapplicabilità delle tre leggi della robotica, in particolare della prima, è un esperimento condotto in Inghilterra dal professor Alan Winfield del Bristol Robotics Laboratory che ha messo alla prova un robot, programmandolo in modo che impedisse ad altri due automi – alter ego di esseri umani – di cadere in un buco. In alcuni casi il robot è riuscito a salvare uno dei due, in altri entrambi. In quasi la metà delle simulazioni, 14 su 33, è stato invece troppo lento a “decidere” e non ha salvato nessuno.
La lezione “etica” di Asimov
Come sottolinea Patricia Warrick, docente alla University of Wisconsin, l’aspetto più rilevante della lezione di Asimov è un altro: le tre leggi della robotica sono importanti soprattutto perché suggeriscono un “uso etico della tecnologia”. Un proposito nobile ma spesso disatteso. Lo dicono i numeri: buona parte dei finanziamenti per la ricerca robotica proviene oggi dal settore militare, sempre più a caccia di macchine intelligenti da “assoldare” per danneggiare o uccidere il nemico.
Commento all'articolo