LE “TRE LEGGI DELLA ROBOTICA”

Sono passati 50 anni da allora, quando Isaac Asimov si avvicinò con le sue famose tre leggi della robotica – una serie di regole da seguire da un robot che si rispetti. Anche se inizialmente era solo un dispositivo letterario, le tre leggi sono diventate una ricetta originale per evitare “una apocalisse robotica”. Fortunatamente, ci sono esperti che studiano con certezza se la garanzia Asimov ha superato la prova del tempo. Purtroppo, tutti dicono di no.

In primo luogo, bisogna richiamare queste stesse tre leggi:

  1. Un robot non può recare danno a un essere umano o permettere con l’inazione che un essere umano possa essere danneggiato.
  2. Un robot deve ubbidire agli ordini degli esseri umani, tranne quando tali ordini entrano in conflitto con la Prima Legge.
  3. Un robot deve proteggere la propria esistenza finché tale protezione non entri in conflitto con la Prima e la Seconda Legge.

Asimov poi aveva aggiunto una quarta legge, che precedeva le altre in termini di priorità:

 Un robot non può danneggiare un essere umano, a meno che non dimostri che alla fine sarà utile per l’umanità.

In universo immaginario di Asimov queste leggi dovevano essere seguite da tutti i robot. Non era solo un suggerimenti o linee guida – Le leggi erano state inserite nel software. Inoltre, queste regole non potevano essere evitate, riscritte o riviste.

In queste leggi c’erano imperfezioni, lacune e ambiguità spesso portavano a un comportamento strano e illogico dei robot. Le leggi erano troppo vaghe e spesso non in grado di identificare e distinguere tra “persone” e “robot”. Inoltre, i robot potrebbero inconsapevolmente violare la legge se avevano informazioni incomplete disponibili. Anche i robot troppo intelligenti o con intelligenza artificiale sotto pressione non dovevano riprogrammare il kernel.

Ora, nel 2014, la fantascienza del secolo scorso potrebbe sembrare fantascienza a titolo definitivo. Molte persone hanno sentito che le leggi Asimov dovevano rimanere come un espediente letterario. Ma lo stesso Asimov nel 1981, ha detto che le sue leggi sarebbero state usate, aveva sottolineato quanto segue:

“Quando qualcuno mi chiedeva che cosa sarebbe accaduto se le mie tre leggi della robotica fossero state effettivamente utilizzate per determinare il comportamento dei robot, la mia risposta era  pronta. Naturalmente, a condizione che i robot saranno sufficientemente flessibili e versatili per avere un comportamento diverso. Io dico di sì, le tre leggi – è l’unica opzione, in cui le persone possano interagire con i robot – o qualsiasi altra cosa.

Quasi 30 anni dopo ci siamo avvicinati alla realtà in cui avremmo i robot – o, più precisamente, l’intelligenza artificiale che li controlla – abbastanza flessibile e versatile per diverse linee  di condotta. Rimane solo una questione di tempo quando la macchina supererà l’uomo in tutti gli effetti.

Paura che il margine di errore è praticamente no. Se queste  superintelligenze artificiali mal programmate o con l’indifferenza alla gente, porterà al disastro. Dobbiamo garantire la sicurezza, se vogliamo sopravvivere.

Se le tre leggi di Asimov servono per aiutare a rispondere alla domanda, l’abbiamo chiesto a  due teorici dell’intelligenza artificiale: Ben Goertzel (Aidyia Holdings) e Louis Helm, vice direttore dell’Istituto per lo Studio della macchina di intelligenza (MIRI), così come il direttore esecutivo di Rockstar Research. Dopo aver parlato con loro, fu chiaro che le leggi di Asimov non sarebbero finzionate con tutti i robot. se dovessimo creare un robot con intelligenza artificiale dovremmo sviluppare qualcosa di completamente diverso.

Azimov futuro?

Chiacchierando con Herzl, ci disse che Asimov non aveva commesso nessun errore nel prevedere il futuro.

“Penso che il tipo di robot, che prevedeva Asimov, sarà possibile in un prossimo futuro –  Tuttavia, nella maggior parte dei loro mondi immaginari, lo scrittore ha suggerito che i robot umanoidi saranno i l top della robotica e ingegneria dell’intelligenza artificiale.  Molto presto ci sarà la creazione di una super-intelligenza artificiale.

Così, il mondo sarà come le storie dei robot di Asimov, secondo Herzl, sarà simile a quello in cui viviamo oggi, ma con i robot che  cammineranno per le strade.

“E ‘improbabile che questo accadrà, e se succederà,  sarà tra molto tempo.”

“Il problema principale che, a mio parere, è il più importante per il genere umano non è un regolamento morale per giganteschi umanoidi metà intelligenti, è lo sviluppo di forme avanzate di intelligenza artificiale (in qualsiasi corpo). Questo super-sviluppo –  attraverso la quale l’umanità dovrà passare. Ecco perché lo sviluppo di una strategia per la sicurezza di questa transizione è così importante. Lo vedo molto strano che esisteranno i robot, androidi o “emulatori” tra dieci anni o poco più,  l’umanità dovrà affrontare la sfida di sviluppare queste macchine .

Un buon inizio?

Se prendiamo in considerazione che le tre leggi della robotica Azimovskaya sono stati il ​​primo vero tentativo di risolvere un problema molto serio – il problema delle macchine con super-intelligenza artificiale è il loro comportamento – 

“Francamente, non trovo alcuna ispirazione in queste tre leggi della robotica – dice Helm.  Forse le tre leggi della robotica sono ampiamente note, ma sono inutili. “

Svantaggi Asimov Tre Leggi della Robotica sono i seguenti:

  1. Intrinsecamente controverso
  2. Sulla base di obsoleta etica teorica
  3. Non funziona nemmeno nella fiction

Herzl :

“Il compito delle tre leggi doveva rompere in modo interessante; è per questo che le storie che le coinvolgono sono particolarmente divertenti. Pertanto, le tre leggi possono restare solo esempi didattici di come fare. Se li si prende come base, inevitabilmente ci sarebbero delle scappatoie. “

Herzl credeva che in realtà queste leggi non funzionassero, perché i termini della loro partecipazione sono ambigue e soggette a interpretazione – e quindi fortemente dipendente a coloro che fanno traduzioni.

Il pregiudizio contro i robot?

Un altro aspetto (e il potenziale al ribasso) tre leggi in un apparente sciovinismo, l’ipotesi che i robot devono rimanere, nonostante la loro potenza superiore, subordinati agli  umani, ai loro bisogni e alle loro priorità.

“La società del futuro di Asimov è costituita  interamente da sciovinisti. Le  Tre Leggi della Robotica sono state create per supportare solo un ordine sociale “.

Helm esamina il problema ed è un po’ diverso, sostenendo che se ci trovassimo in questa situazione – saremmo andati troppo lontano.

“Penso che non sarebbe saggio per la progettazione di un sistema di intelligenza artificiale o robot con la coscienza. E a differenza di film o libri in cui i creatori di intelligenza artificiale “accidentalmente” creano le macchine intelligenti, non credo che nella vita reale possà accadere.Ciò richiederebbe un grande sforzo e conoscenza. E la maggior parte dei ricercatori di intelligenza artificiale – persone eticamente esperti, in modo che eviteranno la creazione di quello che i filosofi chiamano “esseri moralmente rilevanti.” Specialmente quando possono facilmente creare una macchina avanzata che avrà le inclinazioni etiche “.

Helm non è interessato alla necessità di sviluppare le leggi asimmetriche che regolano i robot all’importanza rispetto alle persone che discutono (e sperano) che i futuri creatori di intelligenza artificiale si baseranno su alcune delle limitazioni etiche.

“Mi piace pensare che le persone sono fatte di atomi, quindi in teoria, l’ingegnere a creare una forma di vita sintetica o un robot con un valore morale. Mi piacerebbe pensare che nessuno lo farà. 

   Tre leggi della robotica?

Si chiedeva se possono risolvere il problema o apportare miglioramenti? In realtà, molti scrittori di fantascienza hanno ripetutamente cercato di fare questo.

“No, – disse Helm. – Non vi è alcun “patch” per le tre leggi “.

Oltre alla sua natura controversa, le leggi è ancora controversa in natura.

“Sono un fan dell’etica della macchina, che è più cooperativa, più coerente e basata sugli standard, e quindi può recuperare da incomprensioni o programmazioni errate.”

Herzl riecheggiando le dichiarazioni Helma.

“Definire un insieme di precetti etici come l’etica di base della macchina sarà senza speranza se la macchina è basata su un’intelligenza artificiale comune flessibile. Se è concepito come un intuitivo, flessibile, adattabile ed etico – in questo contesto, i precetti etici saranno utili per il sistema solo come una guida approssimativa per l’applicazione delle proprie intuizioni etiche. Ma in questo caso, il comando non diventerà la base di un sistema etico, ma solo un  aspetto. Questo esemplifica la gente – i principi etici che studiamo, il lavoro, ma non come linee guida,  servono solo per  spingere la nostra intuizione e istinti etici. Siamo praticamente indipendenti dai principi etici “.

Come creare un intelligenza artificiale al sicuro?

Data l’inadeguatezza dell’approccio giuridico, si può chiedere al Herzl e Helma su moderni approcci al problema di “sicurezza AI”.

“Pochi ricercatori generali di intelligenza artificiale credono che sia possibile creare un sistema che sarà completamente sicuro – dice Herzl. – Ma questo non preoccupa più, perché in questa vita non si può garantire nulla “.

Herzl riteneva che non appena si crea un sistema comune di intelligenza artificiale o il suo feto, siamo in grado di svolgere attività di ricerca e sperimentazione che ci dirà l’etica dell’ intelligenza artificiale.

“Spero che potremo formulare una buona teoria etica di intelligenza artificiale che ci permetterà di approfondire questo argomento. Ma ora teorizzare l’etica di AI è abbastanza difficile, perché  non abbiamo alcuna teoria. “

Le persone che hanno visto ” terminator “, il processo di creazione dell’intelligenza artificiale può sembrare complicata perché manca la parola” primitivo “in questo contesto. Tuttavia, il più drastico cambiamento è avvenuto in questo modo. “

“Quando un gruppo di cavernicoli intelligenti hanno inventato la lingua, non hanno guardato l’aspetto per lo sviluppo di una forte teoria dei linguaggi formali che potrebbero aiutare a prevedere i futuri cambiamenti causati dalla comparsa del linguaggio nella società.”

Prima di considerare lo sviluppo del prossimo “tre leggi” problema tecnico, è necessario fare un sacco di ricerca. E in questo Helm e Herzl concordano.

“Il mio collega Miri Luke Myuelhauzer riassume il nostro ragionamento come segue. Ha detto che i problemi vanno spesso nel campo della filosofia della matematica, e poi l’ingegneria. La filosofia spesso pone le domande giuste, nel modo più pratico. Nessuno può dire con certezza se vi siano progressi nel risolvere il problema. Se siamo in grado di riformulare importanti problemi filosofici connessi con la mente, l’identità e il valore nella formula esatta, in grado di gestire la matematica, allora sarà possibile costruire qualche modello. Un giorno l’ingegneria lo raggiungerà”.

Helm ritiene che questo problema è una sfida per la scienza e la filosofia, ma con il progresso sarà possibile.

“Sono scettico che la filosofia potrà risolvere la questione che esiste da più di 3.000 anni. Ma anche noi non possiamo  iniziare a scrivere i modelli matematici dei problemi che non sono tecnicamente possibili. Servono ancora un sacco di sviluppi teorici e  pratici “.

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInShare on Tumblr

About admin