[Mostly ~02]
Mostly Weekly
La newsletter omonima a margine del canale Telegram (opens new window)
(quella che esce quando è pronta)
A cura di Antonio Dini
Numero 2 ~ 18 marzo 2019
Un po' di housekeeping: alcuni lettori mi hanno detto di aver trovato Mostly nella loro cartella spam. Ci sono un paio di cose che potete fare per rendere meno probabile che questo accada: aggiungere l'indirizzo email alla vostra lista di contatti e, se nonostante questo Mostly finisce ancora nella vostra cartella spam, assicuratevi di non spostarla semplicemente nella casella principale della posta, ma anche di segnalarla come "non spam" nel caso in cui il vostro client abbia questa funzione (Gmail ce l'ha). Tutto questo succede in parte perché questo indirizzo è un indirizzo nuovo, creato apposta per la newsletter e non ha una reputazione online da offrire in pasto ai filtri che valutano lo spam; con un piccolo sforzo da parte vostra permetterete a Mostly di farsi la sua reputazione positiva e di evitare in futuro di finire nello spam. Piccole newsletter crescono.
Grazie.
IN QUESTO NUMERO
- Negligenza
- intro (non breve)
- il paper di ricerca
- la digressione (breve)
- il nocciolo della vicenda
- Limerick
- Tsundoku
NEGLIGENZA
Non breve introduzione al punto sulla negligenza a cui voglio arrivare.
C'è un termine, cognitive computing, che da un po' di tempo rimbalza da tutte le parti (assieme ad edge computing (opens new window) e a quantum computing (opens new window)). Wikipedia definisce (opens new window) il cognitive computing come:
un nuovo hardware e/o software che imita il funzionamento del cervello umano (...) e contribuisce a migliorare il processo decisionale umano
Detto in altro modo, è una piattaforma tecnologica sopra la quale, tra le altre cose, stanno:
machine learning, reasoning, natural language processing, speech recognition and vision (object recognition), human–computer interaction, dialog and narrative generation.
Insomma, di tutto di più, basta che sia intelligenza artificiale. A mio avviso, rischia di essere un modo fuorviante in più per vedere le AI e capire i problemi che sollevano, se prima non si chiariscono altre cose.
Il tema AI è sempre più di frequente un "oggetto tecnologico non identificato" onnipresente nel nostro quotidiano. Si cerca di trasformarlo in una parola al singolare (cognitive computer, come ultima frontiera) ma la realtà è una idea più complessa e fatta di molte cose pensate per scopi diversi. La semplificazione fa parte di un processo naturale di addomesticamento delle nuove tecnologie, ma adesso viene forzata in maniera eccessiva.
Il processo naturale funziona più o meno così: man mano che la società identifica particolari casi e applicazioni, questi vengono "staccati" dal blob non meglio identificato (la parola-minestrone che le contiene tutte) e trasferiti nel quotidiano, chiamandoli con altri nomi: lavatrice smart, riconoscimento automatico del volto, Siri, filtro antispam smart, etc.
Questo sul versante del consumo. Sul versante opposto di chi produce, invece, succedono altre cose altrettanto rilevanti, sia da un punto di vista politico che economico. In ordine sparso, le ultime che ho visto.
La Cina sta diventando un soggetto sempre più importante nella ricerca sulle AI. Un ottimo indicatore è il numero di paper di ricerca cinesi "buoni", che cresce sempre di più (opens new window).
Il mensile dell'Economist, 1843, racconta la storia di DeepMind (opens new window) e dei percorsi e vicoli ciechi che ha incontrato, fino ai successi che hanno ricevuto molta attenzione poco tempo fa:
Il lavoro di DeepMind è culminato nel 2016, quando un team ha costruito un programma di intelligenza artificiale che utilizzava l'apprendimento per rinforzo insieme ad altre tecniche per giocare a Go. Il programma, chiamato AlphaGo, ha suscitato stupore quando ha battuto il campione del mondo in una serie di cinque partite che si sono tenute a Seul nel 2016. La vittoria della macchina, vista da 280 milioni di persone, è arrivata un decennio prima di quanto previsto dagli esperti. L'anno successivo una versione migliorata di AlphaGo ha sconfitto il campione cinese di Go.
Vogue Business racconta (opens new window) di come i negozi fisici "si facciano furbi" utilizzando l'intelligenza artificiale per migliorare la relazione e la vendita (tipo: riconoscere la soddisfazione dei clienti che escono analizzando automaticamente l'espressione del loro volto).
Due persone superbig dell'intellighenzia digitale planetaria, cioè Joi Ito (opens new window) e Jonathan Zittrain (opens new window), quest'anno per la terza volta faranno un corso di etica delle AI (Applied Ethical and Governance Challenges in Artificial Intelligence (opens new window)) a una classe composta di studenti per metà di Harvard e per metà del MIT. (Le tecno-élite – come tutte le élite – sono sempre autocelebrative, compiacenti e condiscendenti verso se stesse quando si muovono in ambienti più riparati).
Insomma, premessa lunga per dire che c'è un sacco sulle AI e che ne stiamo perdendo il senso.
Arriviamo così a quel che mi ha colpito leggendo un paper di ricerca.
Il paper tratta il rapporto che esiste tra la negligenza e l'intelligenza artificiale. Per "negligenza" qui faccio riferimento al concetto giuridico, uno degli elementi psicologici della colpa generica. La negligenza vuol dire compiere una attività senza la dovuta attenzione ovvero quando viene omesso il compimento di un'azione doverosa. Attenzione, non è la stessa cosa della imprudenza (sventatezza e audacia) o della imperizia (mancanza di abilità e di esperienza).
Il paper di cui sopra si intitola Negligence and AI's Human Users (opens new window) e tocca un tema secondo me fondamentale:
Inserendo uno strato di codice imperscrutabile, non intuitivo e di derivazione statistica tra un decisore umano e le conseguenze di quella decisione, l'AI stravolge la nostra tipica concezione della responsabilità per le scelte sbagliate.
Da qui viene fuori un ragionamento molto interessante che è stato notato da Rachel Thomas (opens new window) (una che di intelligenza artificiale qualcosa ne sa) sulle AI come "assistenti decisionali" anziché come super-robot che si muovono in tutta autonomia. Quest'ultima invece è l'idea che monopolizza o quasi il ragionamento pubblico attorno a questi problemi.
Trattare l'AI di oggi come un qualcosa dotato di agenzia non è utile né edificante e nasconde le differenze fondamentali con l'AI di assistenza alle decisioni. L'AI che assiste le decisioni si sta rapidamente espandendo nei settori dell'occupazione, dei prestiti, della vendita al dettaglio, della polizia, dell'agricoltura, della medicina, della finanza e della sicurezza dei dati.
E a chi le obietta che questo approccio è specifico del software e non, ad esempio, dei sistemi di sterzatura delle automobili, risponde:
Leggere l'articolo prima di commentare. L'articolo riguarda le sfide legali in materia di responsabilità. Se il sistema di sterzo della vostra auto non funziona correttamente, esiste un processo consolidato per intentare una causa legale contro il produttore. Non è così per l'assistenza decisionale dell'intelligenza artificiale.
Qual è la particolarità di una AI "di assistenza alle decisioni"?
(...) I robot autonomi sono un sottoinsieme ristretto delle tecnologie di AI. Più comune è quella che io definisco AI "di assistenza alle decisioni": una tecnologia che opera fornendo raccomandazioni a un utente.
Volete un esempio? Andate in banca a chiedere il mutuo e ve lo vedete rifiutato. Perché? (avete diritto di saperlo). La decisione è di un funzionario, che ha potere di firma, ma è "il sistema" quello che ha elaborato la pratica automaticamente e che "non lo permette". Il trattamento dei vostri dati, cioè, è avvenuto in maniera che non può venirvi spiegata.
Insomma, c'è un altro problema da affrontare prima di cercare le risposte giuste. Ed è quello di capire se ci stiamo facendo le domande giuste. C'è infatti un tema di conoscibilità della cosa di cui stiamo parlando, che richiede aver capito un po' di passaggi.
Breve digressione sulla differenza tra un software tradizionale per calcolare se si può erogare il mutuo e uno che invece lo fa usando le AI.
A differenza del software tradizionale, che è basato su un approccio deduttivo (l'elaboratore esegue il programma che contiene le indicazioni su cosa fare per fornire disco verde all'erogazione del mutuo), buona parte delle AI sono basate su un approccio induttivo (l'elaboratore esegue un programma che ha appreso induttivamente da una serie di esempi il modo per raggiungere i risultati voluti dai programmatori: milioni di mutui erogati o no per addestrare la AI a dare disco verde o no alle varie pratiche che le vengono sottoposte). In questa seconda tipologia di software, la nostra capacità di comprendere il modo con il quale il software elabora il suo output ("prende le decisioni", cioè indicare al funzionario se il mutuo può essere erogato o no) è alquanto limitata. Non sappiamo come venga eseguito di preciso il trattamento dei dati.
Fine della breve digressione.
Quindi, spiega il paper (opens new window), il tema della responsabilità diventa enorme, ad esempio per tutte quelle situazioni in cui le AI vengono utilizzate come assistenti nei processi decisionali.
Inserendo uno strato di codice imperscrutabile, non intuitivo e di derivazione statistica tra un decisore umano e le conseguenze di quella decisione, l'AI stravolge la nostra tipica concezione della responsabilità per le scelte sbagliate.
E quindi, il paper si occupa proprio di questo:
L'articolo sostiene che la natura unica dell'AI introduce quattro complicazioni nella negligenza: 1) l'imprevedibilità degli errori specifici che l'AI commetterà; 2) i limiti di capacità quando gli esseri umani interagiscono con l'AI; 3) l'introduzione di vulnerabilità software specifiche dell'AI in decisioni non precedentemente mediate da software; e 4) le preoccupazioni sulla sua distribuzione basate sulla natura statistica dell'AI e sul potenziale di parzialità.
Così, secondo me cominciamo a ragionare in maniera un po' più sensata e concreta. E si vedono dei problemi che finora erano stati completamente evitati da chi ha studiato la materia e da chi la racconta. Cioè: i differenti tipi di responsabilità delle persone che utilizzano le AI come strumento di aiuto decisionale.
Gli studiosi della responsabilità civile hanno per lo più trascurato queste sfide. Ciò è comprensibile perché si sono concentrati sui robot autonomi, in particolare sui veicoli autonomi, che possono facilmente uccidere, mutilare o ferire le persone. Ma questa attenzione ha trascurato di considerare l'intera gamma di ciò che è l'AI.
E qui casca l'asino della visione semplificatoria e semplificata per motivi prevalentemente commerciali e ideologici:
Al di fuori dei robot, le tecnologie AI non sono autonome. Si tratta piuttosto di strumenti di assistenza alle decisioni che mirano a migliorare l'inefficienza, l'arbitrarietà e la parzialità delle decisioni umane. Concentrandosi su una tecnologia che elimina gli utenti, gli studiosi di responsabilità civile si sono concentrati sulla responsabilità da prodotto e sull'innovazione e, di conseguenza, non hanno colto le implicazioni giuridiche della negligenza, il regime che regola i danni causati dagli utenti dell'AI.
Il paper vale il vostro tempo, se volete approfondire il sottile confine tra diritto, società e tecnologia. Ah, è più lungo di quel che ho scritto io qui, ma non di tanto. 😃
LIMERICK
Al corso sui linguaggi contemporanei che tengo alla Civica scuola di cinema della Fondazione Milano i miei studenti stanno facendo un po' di esercizi. Ad esempio, scrivono dei limerick su soggetti contemporanei.
La mia bella damigella persiana
s'è presa una bella mattana,
a sposar quel gentiluomo d'Albione
senza un soldo né un gallone
che crudele, la mia bella damigella persiana.
**
Truce Don Toño affettava in Messico il pollo
scuro di sporco e di sangue era il suo dito satollo
eppure gentile era nei confronti della ragazzina
e di cioccolata le chiedeva una tazzina
il buon Don Toño messicano sino al midollo.
**
Un vecchio funzionario di Orione
controllava dei pianeti la rotazione
una sera d'estate gli si bloccò il collo
e di tutti i pianeti perse il controllo
il disoccupato funzionario di Orione
**
La soldatessa della guerra Persa
partì per il fronte, lo fece di corsa
il suo amante scuoteva forte la testa
non la scorgeva più, dal bordo della costa
non sapeva nuotare, la povera soldatessa della guerra Persa
TSUNDOKU
Quando si comprano libri e non si leggono ma si accumulano e basta, c'è una parola (giapponese) per dirlo
In questi giorni mi sono capitati tra le mani:
I numeri #693 (Monument Valley (opens new window)) e #694 (Spedizione nel deserto (opens new window)) di Zagor. Siamo a metà circa di una avventura piuttosto lunga di ZagorTeNay ambientata nel sud-ovest degli Stati Uniti (zona inconsueta per il personaggio creato da Sergio Bonelli). Sto rispolverando Zagor perché mi pare che sia, con Tex e Dragonero, un personaggio che sta crescendo di nuovo. C'è anche il reboot delle sue origini, altre pubblicazioni. Insomma, interessante.
Pesciolino, Lisa Brennan-Jobs (opens new window), memoir della figlia naturale (poi riconosciuta) di Steve Jobs, padre crudele e distante, ma anche insolitamente intenso. Fece discutere qualche mese fa, è scritto molto bene e si legge ancora meglio, anche senza manie tecnologiche.
The Expanse (opens new window) stagioni 1-2-3. È su Amazon Prime. Avevo cominciato a guardare la prima stagione quando è uscita, tre anni e mezzo fa, e poi ho lasciato perdere. Di recente ho ricominciato e finito le prime tre. Amazon sta producendo la quarta stagione. La serie parte piano ma poi cresce e si amplia sempre più. A chi piace la fantascienza e lo spazio: un po' Battlestar Galactica (la miniserie del 2003 (opens new window) e successivi) un po' Star Trek Enterprise (quella dove sudano).
I link non hanno alcuna affiliazione, puntano orgogliosamente solo all'oggetto culturale citato. Un giorno riuscirò a renderli non tracciati.
“A man must love a thing very much if he practices it without any hope of fame or money, but even practice it without any hope of doing it well. Such a man must love the toils of the work more than any other man can love the rewards of it”
– G.K. Chesterton
END
Ti è piaciuta? Inoltrala a chi potrebbe essere interessato.
Se l'hai ricevuta, qui puoi iscriverti
Qui invece c'è l'archivio dei numeri passati
Se vuoi contribuire al futuro di Mostly Weekly, puoi pagare un piccolo contributo equivalente a un caffè usando PayPal (opens new window) amici e parenti
Buona domenica!