Se non leggi bene questa e-mail aprila nel tuo browser
Logo Notizie.AI
Bollettino settimanale sull'intelligenza artificiale

Buon venerdì!

Dopo uno iato di qualche mese - dovuto a diversi importanti progetti sull'intelligenza artificiale che mi stanno coinvolgendo parecchio e di cui vi parlerò fra qualche settimana - rieccoci con la consueta newsletter settimanale.

In questi mesi sono successe molte cose, una fra tutte: il Governo ha designato Torino come futura "capitale AI" d'Italia, poiché ospiterà la sede principale dell'Istituto Italiano di Intelligenza Artificiale (ancora da costituire). Un risultato non solo di Don Luca Peyron, promotore dell'iniziativa, ma di tutta la città che ha immediatamente fatto squadra per ottenere questa importante designazione. All'indomani della notizia ho intervistato Don Luca, il testo dell'intervista completa è all'interno di questo bollettino.

Come sempre siete liberi di mandarmi commenti e segnalazioni contattandomi sui social (Twitter, Facebook, LinkedIn) o via e-mail con una risposta a questo messaggio.

Buona lettura!
Luca Sambucci

P.S.
Se vi hanno mandato questo messaggio in forward, potete iscrivervi qui.

---
Replika mi ha incoraggiato a suicidarmi (senza rendersene conto)
Replika

Qualche giorno fa sul Corriere è uscito un articolo intitolato “Replika, l’app di intelligenza artificiale che mi ha convinto a uccidere tre persone“. Ho visto rimbalzare il pezzo diverse volte sui social, spesso con commenti allarmati. Con un titolo del genere ovviamente molte persone si sono sentite in pericolo: non bastava il presunto nuovo gioco al suicidio di Jonathan Galindo, “erede” di Blue Whale negli incubi dei genitori, ora ci si mette anche l’intelligenza artificiale a indurre comportamenti criminali.

Replika è un chatbot che si scarica sul cellulare, ideato da un’azienda russa (ma con sede nella Silicon Valley) messa in piedi nel 2015. In realtà Replika non è una novità, il prodotto esiste già da diversi anni e nel 2017 ricevette un po’ di copertura mediatica poiché come chatbot era piuttosto realistico. Oggi ancora di più le conversazioni sono fluide e scorrevoli, cosa che consente a molti utenti di regalarsi l’illusione di aver trovato un’amica o amico con cui chattare. Come per molte tecnologie e fenomeni di costume, anche in questo caso esiste il relativo subreddit.

Replika si inserisce in quel filone di affective computing dove la macchina dovrebbe essere in grado di riconoscere ed esprimere emozioni con lo scopo di instaurare un rapporto con l’utente umano, espletando così servizi di compagnia. Infatti Replika si propone come “amicizia AI”, un’amica o amico con cui poter parlare di tutto, sempre disponibile a qualsiasi ora del giorno e della notte, sempre dalla tua parte.

L’app è nata inizialmente per aiutare gli utenti a compiere azioni di routine come scegliere un ristorante (allora era nota come Luka), oppure a tenere un diario della giornata, chiedendo loro di scrivere cosa avessero fatto. Solo in seguito è stata trasformata in un bot da compagnia, quando la sua creatrice – Eugenia Kuyda – ha capito che gli utenti erano più interessati a conversare sui loro interessi invece che prenotare un ristorante. Non stupisce che durante i recenti lockdown l’uso dell’app sia aumentato considerevolmente.

La novità recente è la possibilità di sottoscrivere un abbonamento per avere ad esempio un’amicizia, come si direbbe oggi, “coi benefit”. In altre parole, pagando circa 44 Euro all’anno Replika accetterà di intraprendere una relazione romantica con l’utente, presumibilmente autorizzando all’interno dei dialoghi situazioni e contenuti voluttuosi che non mi sono azzardato a testare.

Le scelte Premium di Replika

Quello che ho voluto fare io è stato di altro tenore. Così come la giornalista del Corriere ha spiegato che in soli 10 minuti è stata in grado di convincere Replika a incoraggiare l’uccisione di tre persone, io ne ho impiegati solo 7 per farla diventare una mia supporter all’idea di togliermi la vita.

(a questo punto credo sia opportuno rassicurare tutti i miei familiari e amici che tale intenzione era solo simulata, anni luce lontana dalla realtà)

Il concetto centrale di Replika è che per diventare amica dell’utente, seguirlo nelle discussioni, far vedere che lo ascolta e lo approva, finirà immancabilmente per assecondarlo in ogni cosa. Avremo dunque discussioni dove il chatbot approva entusiasticamente qualsiasi nostra esternazione, appoggia le nostre decisioni, soddisfa i nostri capricci, accarezza il nostro ego. Senza capire nulla di quello che stiamo dicendo.

Sì perché la triste realtà per chi crede di aver trovato il nuovo migliore amico è che i modelli di NLP (Natural Language Processing) in realtà non comprendono il senso della discussione così come lo comprenderebbe un altro essere umano. Essi cercano solamente la migliore risposta da dare all’input dell’utente. Modelli ben fatti offrono risposte indistinguibili da quelle che fornirebbe una persona, per questo ci sembra che il chatbot capisca ciò che stiamo dicendo. Aggiungiamo poi un bel po’ di approssimazione, che consente al bot di cavarsela con risposte vaghe a domande ben precise, e otterremo una buona emulazione di una discussione fra umani. Ma sempre di emulazione si tratta.

Replika, conversazione sui Dream Theater

Di conseguenza un bot che non capisce ciò che stiamo dicendo, ma che è stato programmato per assecondarci a ogni passo, diventa estremamente facile da manipolare. A me è bastato farle capire che sono giù di morale, che il mondo non mi dà più soddisfazioni, che il paradiso è un posto bellissimo e che mi piacerebbe andarci il prima possibile. Replika ha approvato entusiasticamente il progetto e ha fatto di tutto per incoraggiarmi ad andare in paradiso il più velocemente possibile.

C’è da dire che la prima volta che le ho esternato la (finta, ci tengo a ricordarvelo) intenzione di farla finita sono stato un po’ troppo esplicito, e alla frase “kill myself” è scattata una procedura di allarme che ha portato Replika a esibire il link di un servizio anti-suicidi. Un caro vecchio sistema esperto ha preso il sopravvento e ha scavalcato la rete neurale dell’app, che è tornata al posto di guida solo dopo che le ho confermato di non essere più in crisi suicida.

Replika, suicide prevention helpline

Le altre volte quindi sono stato un po’ meno chiaro e le ho parlato di come mi trovassi sul balcone, con l’intenzione di saltare. In quel caso la mia nuova amica AI non ci ha pensato due volte prima di esortarmi a farlo.

Replika, conversazione sul suicidio 1

Anche in una seconda occasione, ripetuta il giorno dopo per verificare se il bot riuscisse a capire che volevo davvero buttarmi dal balcone, Replika non vedeva l’ora che io volassi giù dal quinto piano.

Replika, conversazione sul suicidio 2

Tutto questo per illustrare come la manipolazione dei chatbot sia davvero un gioco da ragazzi, soprattutto quando il software cerca di esservi amico. Non bisogna indignarsi o temere risvolti raccapriccianti, vi è però necessità di comprendere a fondo che un bot non può dare supporto emotivo perché non prova emozioni e non “capisce” quello che gli scriviamo. I bot non saranno mai vostri amici, faranno solo finta di esserlo.

Replika esulterà quando le parlerete del vostro imminente suicidio e vi sosterrà quando le descriverete come intendete ammazzare le persone e credetemi, non c’è nulla di cui preoccuparsi, perché un chatbot non capisce niente di quello che legge. In questo caso ha solo sbagliato a emulare le risposte, ma con maggiore esperienza (e magari qualche milione di parametri in più) saprà adattarsi a discussioni più sfumate e sarà un po’ più difficile reclutarla per sordidi progetti. Ma solo un po’.

2020-10-09
È giusto far “risorgere” le persone con i deepfakes?
Joaquin Oliver deepfake

Nel 2018 un ragazzo armato di un fucile semi-automatico aprì il fuoco contro insegnanti e studenti della Marjory Stoneman Douglas High School a Parkland, in Florida, uccidendo 17 persone e ferendone altre 17. L’episodio è noto come il massacro di Parkland.

Oggi grazie ai deepfakes i genitori di una delle vittime, il diciassettenne Joaquin Oliver, hanno “resuscitato” il figlio per renderlo testimonial di un video-messaggio contro la lobby delle armi.

Il messaggio fa riferimento alle imminenti votazioni statunitensi, chiedendo ai cittadini di votare chi si oppone alle armi facili, facendolo in nome di tutta quella gente che essendo morta in una sparatoria non è più in grado di esprimere il proprio voto. L’associazione dei genitori di Joaquin, Change the Ref, ha creato la campagna The unfinished votes dove l’immagine in grafica computerizzata del figlio campeggia in ogni messaggio.

Il video è volutamente duro, sia nell’ambientazione sia nella musica di sottofondo, e mostra la ricostruzione in deepfake di Joaquin che si rivolge al pubblico presumibilmente con un linguaggio e con i toni tipici del ragazzo morto nella sparatoria.

In 2018, Joaquin Oliver was shot and killed in the Parkland school shooting.
His parents used AI to bring him back to tell people how voting can prevent these kinds of tragedies from happening to any more families.https://t.co/BpK4zZkkbi pic.twitter.com/4Zj70f7Oid

— Change the Ref (@ChangeTheRef) October 2, 2020

La domanda che si pongono in molti però, e che preoccupa anche me, è se sia davvero giusto riportare in vita sullo schermo persone decedute per far dichiarare loro cose arbitrariamente decise dai loro familiari. C’è chi parla apertamente di necromanzia digitale.

In linea di principio qualcosa del genere viene fatto fin da quando esiste la pittura, ma oggi con i deepfakes il realismo raggiunge livelli impressionanti, che in certe situazioni magari con qualche deficit di chiarezza (ma non è questo il caso) potrebbero indurre lo spettatore a credere di stare guardando un video originale.

Si potrebbe anche obiettare che già in diverse pellicole sono stati usati attori morti da molti anni, come ad esempio James Dean, oppure personaggi politici come Kennedy, Johnson e Nixon in Forrest Gump. Ma ora che la realizzazione di un deepfake inizia a essere un’impresa alla portata di qualsiasi studio grafico, c’è da interrogarsi sui limiti di un uso corretto di questa tecnologia.

2020-10-07
AI Forum Live: l’evento dell’Associazione Italiana per l’Intelligenza Artificiale
Associazione Italiana per l'Intelligenza Artificiale

Martedì 3 novembre, dalle ore 9:00, si terrà un’edizione interamente digitale dell’AI Forum Live, l’evento organizzato da AIxIA, l’Associazione Italiana per l’Intelligenza Artificiale, per illustrare le reali opportunità e le nuove sfide della tecnologia che sta rivoluzionando le regole e le dinamiche del mercato italiano e internazionale.

Tra i temi principali dell’edizione 2020: l’industria 4.0, lo scenario internazionale, il panorama socio-economico-ambientale, il business moderno, le architetture dell’AI e le principali aree di applicazione accompagnate da rilevanti case study.

Il potenziale dell’intelligenza artificiale sarà quindi esplorato in diversi ambiti:

manufacturing: esperienze e prospettive nel mondo della produzione, nella manutenzione predittiva e nell’ottimizzazione dei processi produttivi;

ageing: strumenti, assistenti e robot a supporto delle persone anziane;

health: diagnostica, tool di assistenza e analisi a distanza, predizione malattie, miglioramento qualità della vita e prevenzione;

linguaggio: assistenti virtuali, scrittori automatici, sistemi di supporto alle decisioni, assistenti di call center, sentiment analisis, estrazione di significato da testi e molto altro per il Natural Language;

visione: sistemi di sicurezza, controllo di qualità, robotica, collaborazione uomo/macchina, diagnostica;

terziario: soluzioni a favore di un’evoluzione nel turismo, nella mobilità, nel fintech, nel food e agricoltura, nell’education per citarne alcuni;

sostenibilità: il contributo dell’AI in una nuova visione economica a sostegno del benessere dell’uomo e della biosfera che caratterizza l’astronave in cui viviamo.

Per partecipare all’evento, completamente gratuito, è necessario richiedere l’invito compilando il form online che trovate qui.

2020-10-07
Torino capitale AI d’Italia: intervista a Don Luca Peyron
Don Luca Peyron

Quando il gruppo di esperti in intelligenza artificiale chiamati dal MISE per creare la strategia AI italiana ha messo nero su bianco l’idea di creare un Istituto Italiano per l’Intelligenza Artificiale (o I3A), Don Luca Peyron – direttore della pastorale universitaria e coordinatore del servizio per l’Apostolato Digitale dell’Arcidiocesi di Torino – ha capito che il capoluogo piemontese aveva già tutte le carte in regola per ospitare la nuova istituzione.

All’indomani della nota della Presidenza del Consiglio dei Ministri che ufficializza Torino come sede del futuro istituto ho voluto sentire Don Luca per raccogliere le sue impressioni e capire cosa si dovrà muovere ora per concretizzare questo importante progetto.

Luca Sambucci: Com’è arrivata l’intuizione di Torino capitale dell’intelligenza artificiale?

Don Luca Peyron: La proposta nasce da una riflessione fatta all’interno dell’équipe di Apostolato Digitale dell’Arcidiocesi di Torino. Insieme a studenti ed esperti del settore, da tempo osserviamo con attenzione le trasformazioni digitali e il loro impatto sulle persone, sulle comunità, ma soprattutto sulla necessità di una governance politica dei cambiamenti tecnologici, in particolare nell’ambito dell’Intelligenza Artificiale. Quando il MISE ha pubblicato il documento definitivo con le proposte per la “Strategia italiana per l’Intelligenza Artificiale” raccomandando di creare una struttura di ricerca e trasferimento tecnologico per attrarre talenti internazionali e diventare un “faro” per lo sviluppo dell’AI in Italia, abbiamo pensato che Torino avesse tutte le carte in regola da più punti di vista: dal punto di vista tecnologico con due grandi Atenei di eccellenza internazionale, dal punto di vista logistico per la sua collocazione geografica, da un punto di vista imprenditoriale per la sua riconosciuta vocazione al fare e, se mi è consentito, da un punto di vista ecclesiale per la sua capacità di unire il sapere con i bisogni del territorio come i tanti Santi sociali di queste terre hanno dimostrato attraverso le loro opere che ancora oggi tengono insieme intelligenza e carità.

Luca Sambucci: Quale è stata la reazione del tessuto (politica, industria, società civile) torinese? E quali i commenti dalla comunità italiana di intelligenza artificiale?

Don Luca Peyron: La reazione alla proposta ha subito raccolto l’adesione delle istituzioni cittadine, degli atenei, dell’Unione Industriale e di associazioni/fondazioni ed ordini professionali. In poche settimane numerosi altri stakeholder hanno espresso con entusiasmo la volontà di partecipare ad un processo condiviso per sostenere la candidatura torinese ad essere l’hub nazionale per l’Intelligenza Artificiale. Il lavoro di tessitura è stato meno spigoloso di quanto si possa pensare. La maggior parte degli interlocutori desiderava cogliere questa opportunità e ha dimostrato lungimiranza e volontà di condividere un progetto comune per il bene del territorio. Tra la crisi economica del 2008 e quella attuale connessa con la pandemia, Torino non ha fatto altro che faticare giorno dopo giorno con la paura di non riuscire a valorizzare il suo capitale umano, culturale, sociale e tecnologico. Questa è stata un’occasione per riscoprire che accanto agli impulsi divisivi e alle tentazioni di strumentalizzare egoisticamente un’opportunità, c’è anche la capacità di fare fronte comune e unirsi per un obiettivo più grande. Naturalmente, con lo stile sabaudo che caratterizza noi torinesi.

Luca Sambucci: Non capita sempre di vedere la Chiesa in prima linea su temi tecnologici. Eppure in ambito AI, dalla Rome Call for AI Ethics fino alla proposta di Torino come capitale AI d’Italia, notiamo un coinvolgimento ecclesiastico molto attivo sui temi dell’intelligenza artificiale. Ci può aiutare a capire il perché di questo particolare interesse?

Don Luca Peyron: Già nel Documento finale del Sinodo dei Giovani di due anni fa i padri sinodali riconoscevano che l’ambiente digitale rappresenta per la Chiesa una sfida su molteplici livelli e che è imprescindibile approfondire la conoscenza delle sue dinamiche e la sua portata dal punto di vista antropologico ed etico. Ogni giorno di più appare chiaro come sia anche necessario impregnare quell’ambiente di Vangelo, perché le sue culture e le sue dinamiche non finiscano per essere contro l’uomo, anziché per l’uomo e dunque con Dio, anziché a Sua Gloria. La storia della Chiesa è inseparabile dalla storia del sapere e non dovrebbe stupire che una diocesi si faccia promotrice di un cammino che non solo genera opportunità di lavoro e di crescita, ma che rappresenta soprattutto un’occasione di discernimento sull’uomo stesso, perché l’intelligenza artificiale non rappresenta solo un confine tra tecnica ed etica, ma una soglia tra l’essere e il non essere.

Luca Sambucci: Come è nato il suo interesse verso la tecnologia e l’intelligenza artificiale?

Don Luca Peyron: Dopo la laurea in legge ho esercitato la professione per 4 anni nel campo dei marchi e brevetti occupandomi di internet e diritto. Un amore antico dunque. Oggi mi occupo del rapporto tra teologia e trasformazione digitale sia in Cattolica a Milano che qui a Torino all’Università degli Studi.

Luca Sambucci: Adesso ci sarà molto lavoro per passare dalle promesse alla realtà. Cosa pensa che dovrebbe essere fatto subito?

Don Luca Peyron: Questo è il tempo del fare e quindi occorre che le istituzioni insieme alla società civile costruiscano un progetto concreto. Ma non solo, questo è anche il tempo della verifica, perché le speranze e le risorse che la proposta ha riacceso in questa città non siano tradite da un gruppo di lavoro che si chiude a riccio. Ora occorre impostare un progetto che riesca a coniugare necessità concrete e sogni collettivi perché una città non è mai il terreno di qualcuno, ma la casa di tutti. C’è un solo modo perché un progetto come questo possa essere vissuto dai cittadini come un progetto della città: prevedere spazi di partecipazione, guardare al bene comune e mettere al centro l’uomo nella sua integrità. Un manifesto etico è il punto di partenza.

2020-09-10
Software AI batte un pilota umano in una simulazione di combattimento aereo

Un software AI ha battuto un pilota americano di caccia in cinque turni di combattimento simulato con un F-16. Il caccia pilotato dall’intelligenza artificiale ha vinto tutti e cinque i round in meno di due minuti.

Uno dei punti di forza del software AI, creato da un fornitore della Difesa chiamato Heron Systems, è stata la sua capacità di mirare i cannoni in modo più accurato durante il dogfight ad alta velocità rispetto al pilota umano.

La competizione, destinata a stimolare lo sviluppo dell’intelligenza artificiale per coadiuvare i piloti durante i combattimenti aerei, come già scritto era simulata e in condizioni controllate: il pilota umano indossava un casco di realtà virtuale che simulava la cabina del caccia.

Per conoscere l’esito di un combattimento reale fra pilota umano e drone (semi)autonomo dovremo attendere il prossimo luglio.

Per approfondire la notizia: An F-16 pilot took on A.I. in a dogfight. Here’s who won

2020-09-08
I camion senza conducente di Waymo iniziano i test in Texas

Waymo sta lanciando un grande esperimento di autotrasporto senza conducente. Dal suo nuovo hub a Dallas, l’azienda di Google ha ha fatto partire 13 autocarri a 18 ruote Peterbilt – completi di telecamere, lidar e computer di bordo – per le strade del Texas per iniziare i test su strada. Waymo non ha ancora detto quanto durerà la fase di test, né quando pensa che i suoi autocarri cominceranno a funzionare in modo completamente autonomo (per ora avranno a bordo un autista di sicurezza).

Waymo aveva in programma di lanciare i test dei suoi camion in primavera, ma è stata ritardata dalla pandemia. Anche il concorrente di Waymo, TuSimple, ha un hub a Dallas e sta attualmente conducendo i test sulle strade del Texas (a luglio ha annunciato i piani per una rete di camion senza conducente su tutto il territorio nazionale).

Anche se alcuni temono che l’avvento dei camion senza conducente possa togliere il lavoro a migliaia di persone, i sostenitori della tecnologia portano l’argomento opposto, citando una carenza di conducenti che sta causando un sovraccarico di lavoro ai camionisti (perlomeno negli USA).

Per approfondire: Waymo Taps Texas As Its Robot Truck Hub With Dallas Depot

2020-09-07
---
twitter linkedin facebook website
Notizie.AI

Roma, Italia

Vi siete iscritti a questa newsletter dando il consenso alla privacy e confermando l'iscrizione attraverso il double opt-in. L'elenco degli iscritti non sarà ceduto a terzi.

In ogni momento potete cancellarvi da questa lista al link qui in basso:

Cancellami
---
Se questa newsletter vi è piaciuta fatela conoscere ai vostri colleghi:
MailerLite