Testata

Self driving cars ( automobili che si guidano da sé )




L'equipaggiamento tecnologico della Google driveless car ( fonte : Google via E&T Magazine [ 1 ] ).



Isaac Asimov e l'auto che si guida da sola

Cosa dovrebbe fare una driverless car nel caso in cui si trovasse a dover decidere tra vita del passeggero e quella di un pedone?
Ipotizziamo che un bambino attraversi improvvisamente la strada è l'auto sia costretta a decedere se investire il pedone o schiantarsi contro un muro.
Un problema “asimoviano” per le tre leggi della robotica che ricordo essere:


1 - Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 - Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 - Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.


Comunque in [ questo articolo ] esplorano il problema, che sembra di lana caprina ma invece è serio.

Luca Oleastri


[ ... ]

1

Ripropongo il pensiero pubblicato da Luca Oleastri aka Innovari [ 3 , 4 ] sulla pagina faccialibresca delle Edizioni Scudo [ 5 ] perché è già attuale, stante la progettazione e i test su strada di svariati prototipi di automobili che non necessitano dell'intervento del guidatore umano ( self driving cars ... veri e propri robot con le ruote e capienti a sufficienza per ospitare una o più unità a carbonio - esseri umani ) : dalla Google driverless car per i poveracci [ 6 , 7 ] che pochi giorni fa s'è guadagnata il suo spazio di fama globale perché in California è stata sanzionata per “velocità troppo bassa” ( viaggiava ai 40 km/h ) [ 8 ] alla Mercedes-Benz F 015 detta Luxury in Motion e the mobile lounge per gli amministratori del Sistema [ 9 , 10 ] presentata al CES 2015 del gennaio scorso.

Stimola l'immaginazione di situazioni di traffico equivoche – ma i ragionamenti possono essere eseguiti anche in altri ambiti spaziali e modali ... le cose intelligenti ( dispositivi elettronici iniettati di percorsi operativi condizionali e capaci di accumulare e ordinare dati esperienziali in database ) sono ormai ovunque – nelle quali una macchina che porta in sé le Tre leggi della robotica di Isaac Asimov [ 11 ] potrebbe arrivare a una situazione di paradosso logico e imballarsi.


Come reagirebbe una macchina in uno sfortunato insieme di circostanze sfavorevoli?

A porci un interrogativo su come dovrebbe essere il comportamento delle auto robot in condizioni critiche è la Technology Review del MIT. La domanda è di quelle che mettono in gioco qualcosa che va oltre le leggi della robotica di Asimov: cosa dovrebbe fare una diverless car quando si trova a dover decidere della vita del passeggero o dei pedoni?

Giovanni Drogo ( su neXt quotidiano )


2

Forse la Legge Zero potrebbe dirimere alcune situazioni complicate in strada e altrove :


La Legge Zero

Le Tre Leggi vennero estese con una quarta legge, la 'Legge Zero', così chiamata per mantenere il fatto che una legge con numero più basso soprassedesse a una con numero maggiore. Venne enunciata da un personaggio di Asimov, R. Daneel Olivaw (R. sta per Robot), nel romanzo I Robot e l'Impero, anche se venne precedentemente menzionata in Conflitto evitabile da Susan Calvin. In I Robot e l'Impero, R. Giskard Reventlov fu il primo robot ad agire in base alla Legge Zero, anche se ciò si rivelò distruttivo per il suo cervello positronico, quando violò la Prima Legge. Daneel, nel corso di molte migliaia di anni, fu in grado di adattarsi e obbedire completamente alla Legge Zero che recita:


    0. Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.


Le altre 3 leggi vengono modificate di conseguenza:


    Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero.
    Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.
    Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.


Cosa si può intendere per umanità ?

Questione filosofica, eppure ci riguarda.

Abbozzo una risposta : la capacità potenziale riproduttiva e creativa in senso lato degli esseri che la partecipano – riprendendo il caso citato dal post “Il senso morale delle macchine senza pilota” su neXt quotidiano [ 12 ] – se l'auto-robot avesse a bordo un bambino e si trovasse di fronte un anziano in una scelta binaria, tra il frenare o lo sterzare con pericolo per la salute dei passeggeri e l'investimento del pedone, dovrebbe scegliere la seconda opzione.

3

Mi chiedo se la robotica verrà inclusa tra le materie scolastiche e dei corsi delle scuole guida, cioè se verrà progettato e implementato un minimo livello didattico propedeutico alla consapevolezza dell'uso e dell'interazione con macchine sempre più intelligenti e interconnesse.
Stiamo assistendo alla progressiva deprivazione delle identità ( anche fisiche ) e delle attività fisiche nelle vite degli Homo, alla de-umanizzazione delle cosiddette civiltà avanzate ...
Chissà cosa accadrà, quando la vita di qualche miliardo di esseri umani sarà del tutto superflua in termini pratici e resterà un mero, enorme peso in termini di consumo di risorse.

Bookmark and Share

16 commenti:

  1. Ah, questo riflesso condizionato per cui bisogna infilare il moralismo da due soldi in qualsiasi cosa. Il robot attuale non è una AI, quindi non può inventare una risposta ad una situazione imprevista, può solo adottare una azione prevista come risposta ad una condizione prevista.
    Se l'auto tira sotto un pedone si può fare come quando cadono gli aerei, si studia l'incidente e si conclude che o non c'era modo di evitarlo oppure che c'è qualcosa nella meccanica o nel software che deve essere perfezionato. Non ci sono dilemmi morali.

    Un ipotetico robot che avesse una AI e le tre leggi di Asimov, sarebbe ovviamente una AI menomata. La ragione della menomazione è che da una parte vogliamo che il robot esista in funzione di chi lo costruisca e non come entità autonoma, in seconda battuta non vogliamo che il robot, oltre a non servire il sui costruttore, diventi anche una minaccia competitiva. Questo implica che non esiste una reale convenienza nel realizzare la AI perché nel 99,9% dei casi non serve che la macchina affronti l'imprevisto.

    Ma anche se fosse, non c'è bisogno che il robot prenda sempre la decisione giusta. E' questo il punto fondamentale che non consideri. Gli esseri umani prendono decisioni sbagliate di continuo e ci sono anche guasti meccanici di continuo. Quello che viene richiesto al robot è di essere economicamente efficace ed efficiente. Nel caso della auto robotica, lo scopo non può essere quello di risolvere dilemmi filosofici, che fa ridere solo pensarlo ma semplicemente quello di essere un sistema di trasporto più efficace ed efficiente degli altri. Basterebbe che riducesse il numero di incidenti del X% e/o che riducesse il costo per km percorso e già varrebbe la pena di metterlo in pratica.

    Le terapie mediche, come qualsiasi cosa, hanno un certo margine di errore, cioè ogni X pazienti trattati, Y guarisce, K rimane menomato, W muore. Nessuno cerca la terapia perfetta, si cerca la terapia che riduce i valori K e W e/o che abbassa i costi del trattamento.

    RispondiElimina
    Risposte
    1. In altre parole, è folle l'idea che l'uomo cerchi di replicare meccanicamente se stesso, una entità che fallisce spesso e volentieri, piena di tare. Ancora più folle che cerchi di creare una versione meccanica di Dio, cioè una entità perfetta.

      Elimina
    2. Ah, questo riflesso condizionato per cui bisogna infilare il moralismo [ ... ].

      Ti contraddici poco dopo : i dilemmi morali possono essere codificati come sequenze decisionali ed inseriti nel sistema operativo della macchina.
      Le tecnologie di riconoscimento biometrico esistono già.
      Chiaro che l'auto-robot sarà utile nella misura percentuale ( e grossa-economica ) in cui eviterà incidenti, abbrevierà il raggiungimento dei luoghi di destinazione, consumerà meno energia propellente ...
      però in una giornata-tipo nel sistema strada ci saranno tanti rombi da risolvere.
      E' un problema di ordine pratico già attuale, e il post descrive anche una proiezione dell'argomento ( anche di quello morale ed etico intrinseco ) nel futuro prossimo.

      ===

      Elimina
    3. No, il tuo post fa solo confusione su cose che non sono nello stesso insieme. L'auto deve seguire il codice della strada e in caso di emergenza preserverà la sua stessa integrità, ergo quella dei passeggeri. Se davanti gli si para un gatto o un bimbo per l'auto è la stessa cosa e nessuno MAI gli chiederà di prendere la decisione "morale" tra le due vite. Forse non è chiaro, all'auto robotica NON serve la capacità di risolvere dilemmi morali e quindi di decidere chi vive e chi muore, solo la capacità di funzionare entro le specifiche previste e in tutti i casi imprevisti di preservare se stessa (che poi si traduce nel frenare e nello sterzare per fermarsi).

      Elimina
    4. Prego notare che alla auto robotica si applicano esattamente le stesse regole delle auto con guidatore umano. Viene richiesto solo di seguire il codice della strada e in caso di incidente, di arrestarsi in maniera (idealmente) controllata. Nessuno si aspetta che un guidatore si butti da un ponte con la macchina per salvare un passate, ci si aspetta solo che nel momento in cui il passante viene investito, l'auto procedesse in maniera conforme al regolamento stradale.

      Elimina
    5. Aggiungo: esistono già macchine semi-autonome, per esempio i rover su Marte. Hanno una serie di software che gli permettono di andare dal punto A al punto B in maniera indipendente e di compiere operazioni come fare un buco in un sasso con un trapano. Il software usa dei sensori per permettere al rover di "vedere" un sasso lungo il percorso e quindi scegliere se girargli attorno in un modo oppure un altro. Quando il rover si imbatte in una anomalia, semplicemente si ferma e aspetta istruzioni dal centro di controllo. Che è insieme molto più economico e meno rischioso che dotarlo della capacità di inventarsi una strategia.

      Vale lo stesso per le auto sulla strada, qualsiasi anomalia si traduce nell'arresto del veicolo nella maniera più rapida possibile ma conservando l'assetto. Se nel farlo la macchina va a sbattere comunque contro qualcosa, pazienza, il caso in cui questa strategia non risulta la migliore sarà uno si un milione.

      Elimina
    6. Nel momento in cui il controllo operativo viene trasferito da Homo alla macchina, avviene implicitamente un trasferimento delle considerazioni morali ed etiche che vengono ( venivano ) eseguite dall'unità a base carbonio a priori dell'azione, alla macchina.
      Se la macchina non le prevede, c'è un buco nel codice.
      Non è possibile fermare la macchina ( cioè un numero indefinito di automobili nel traffico ) in attesa di singole decisioni dall'Homo sulla vettura - impegnato in altre attività umane - e/o da un centralino della società provider delle informazioni sui trasporti, ogni volta che la macchina non sa cosa fare = come comportarsi ...
      Vedrai che il buco verrà colmato.

      ===

      Elimina
    7. E dai con sta storia. Non esistono considerazioni morali ed etiche quando tu guidi la macchina. Per caso quando hai preso la patente ti hanno chiesto "ma cosa fai se devi scegliere tra investire un bambino oppure andare a schiantarti contro un muro"? Mi fai ridere.

      Che la guida sia automatica o manuale, l'unica cosa che conta è la Legge, nello specifico il codice della strada. Paradossalmente se tu rispetti il codice alla lettera, puoi investire un bambino ogni giorno e rimani nel consentito.

      Una cosa che poi non capisci è che la macchina risolve i problemi semplificandoli, non complicandoli. Se c'è traffico, semplicemente si accoda, perché per la macchina metterci una settimana o un'ora è uguale. Il problema si semplifica ulteriormente interconnettendo le auto automatiche tra di loro, come già avviene per i velivoli militari, in questa maniera l'auto "vede" quello che "vedono" le altre auto e se è il caso cambia strada.

      Elimina
    8. C'è una ulteriore considerazione: mentre un veicolo militare deve sopravvivere ad un ambiente ostile e deve completare la missione, l'auto robotica non ha l'obbligo di fare nulla, se per qualche motivo la situazione non rientra nei parametri previsti, si ferma e buonanotte. Quindi è abbastanza ovvio che le auto automatiche saranno particolarmente lente e caute nel muoversi e che freneranno e si fermeranno ad ogni minimo problema. Ancora, è tutta questione di rapporto costi-benefici in termini economici, non questione di etica.

      Elimina
    9. Esempio di vita vissuta : qualche anno fa, due miei cugini si stavano muovendo su una strada di montagna ... girata una curva, all'improvviso si vedono arrivare dritti addosso due ciclisti che avevano scelto la traiettoria più breve senza sentore dell'automobile che arrivava.
      Il cugino che stava al volante, tra l'accoppare 1 - 2 esseri umani e il rischiare qualcosa su di sé e l'altro a bordo, in un attimo ha deciso e ha sterzato verso l'esterno, finendo in una breve scarpata che dava sul torrente.
      Urto ... colpo della strega ... una botta ... qualche sbucciatura per entrambi ...
      ma tutti salvi e senza grossi danni ( cioè permanenti ).

      Le automobili del futuro prossimo, come si comporteranno ?

      ===

      Elimina
  2. Io, invece di introdurre macchine che si guidano da sole, farei pelo e contropelo a chi ha la patente, per vedere se sanno guidare o meno, se sono incoscienti/avventati/senza criterio o meno.

    Certo, non e' una cosa facile a farsi, e probabilmente introdurre maggiori controlli comporterebbe solamente un aumento della corruzione di chi quei controlli si trova a farli.

    E' la testa che comanda, e anche per guidare una macchina serve un buon addestramento e coscienza dei pericoli, nonche' riflessi pronti e sensatezza, equilibrio mentale.

    RispondiElimina
    Risposte
    1. Il binomio [ consapevolezza , responsabilità ] è ( dovrebbe essere ) la base.
      Nel momento in cui la facoltà operativa e decisionale viene trasferita alla macchina, bisognerebbe essere consapevoli di come lavora la macchina, dei suoi meccanismi logici intimi.
      Da qui ...
      il mio auspicio sull'introduzione della robotica nelle scuole dell'obbligo e in quelle di guida su strada.

      ===

      Elimina
    2. Le macchine sono programmate dall'uomo ed eseguono esattamente cosa viene detto loro di fare.
      Ogni volta che c'e' un malfunzionamento di sorta nei miei programmi, e' inesorabilmente colpa mia (svista, errore concettuale, etc), i bug del compilatore o dell'interprete di solito sono noti e comunque più rari di quelli imputabili a me.

      Secondo me imparare a programmare (in generale) e' un esercizio utile. Ma bisogna davvero partire dal presupposto che le macchine fanno sempre quanto gli dici di fare, non quanto pensi di avergli detto di fare.

      Nelle lezioni di guida io introdurrei tanto esercizio e, soprattutto, occorrerebbe misurare quanto consapevole e' chi sta alla guida. Di solito gli incidenti sono dovuti a stupidita' e inettitudine umani (non avere il pieno controllo della vettura, mettersi alla guida in uno stato alterato, non conoscere/rispettare le normali regole, etc).

      Elimina
    3. L'evoluzione delle macchine ( vedi quelle che ci portiamo appresso da mattina a sera, i dispositivi mobili ) ci racconta che esse sono progressivamente sempre più sensibili e capaci non solo di registrare dati dall'ambiente esterno, dal nostro corpo ( battito cadiaco, pressione sanguigna ... altro ) e dall'uso che facciamo di esse, ma anche di processare questi dati e delineare comportamento e psicologia dell'utente, e uno scenario.
      Cresce cioè l'intelligenza delle macchine ... certo, è indotta e rozza, al momento sta più sul lato server che su quello client ...
      ma c'è.
      E verrà ulteriormente cresciuta dalle industrie che le producono : stiamo andando verso un mondo zeppo di cose intelligenti che interagiranno continuamente con noi e tra di loro e quindi, come nel caso discusso del traffico stradale, una sinergia tra esse sarà indispensabile ad evitare conflitti e incidenti di varia gravità ( vedi : [ IoT ] ... Internet of Things ).

      ===

      Elimina
  3. Il vero problema GROSSO non è morale o etico ma assicurativo.
    Se io per evitare un'altra auto investo un pedone sulle strisce pedonali. la mia assicurazione paga i danno al pedone, ma se questa decisione la prende l'auto da sola chi paga? L'assicurazione della azienda costruttrice?
    E paga tutti gli incidenti dove l'auto ha preso autonomamente delle decisioni che per il codice della strada sono nel torto?
    Mi pare impraticabile sui grandi numeri.

    RispondiElimina
    Risposte
    1. Hai poca fiducia nella tecnologia, Luca.

      Elimina