banner
Centro notizie
I nostri prodotti sono stimati sia nelle regioni nazionali che all'estero.

Juliette Powell e Art Kleiner, autori di The AI ​​Dilemma

Apr 10, 2024

Pubblicato

SU

Di

Il dilemma dell'intelligenza artificiale è scritto da Juliette Powell e Art Kleiner.

Juliette Powell è un'autrice, una creatrice televisiva con 9.000 spettacoli dal vivo al suo attivo, una tecnologa e una sociologa. È anche commentatrice di Bloomberg TV/Business News Networks e relatrice a conferenze organizzate dall'Economist e dall'International Finance Corporation. Il suo discorso TED ha 130.000 visualizzazioni su YouTube. Juliette identifica i modelli e le pratiche dei leader aziendali di successo che puntano sull'intelligenza artificiale etica e sui dati per vincere. Fa parte della facoltà dell'ITP della New York University, dove tiene quattro corsi, tra cui Design Skills for Responsible Media, un corso basato sul suo libro.

Art Kleiner è uno scrittore, editore e futurista. I suoi libri includono The Age of Heretics, Who Really Matters, Privilege and Success e The Wise. È stato redattore di Strategy+Business, la pluripremiata rivista edita da PwC. Art è anche membro di facoltà di lunga data presso la NYU-ITP e l'IMA, dove i suoi corsi includono il co-insegnamento di Tecnologia responsabile e Futuro dei media.

“The AI ​​Dilemma” è un libro che si concentra sui pericoli della tecnologia dell’intelligenza artificiale nelle mani sbagliate, pur riconoscendo i vantaggi che l’intelligenza artificiale offre alla società.

I problemi sorgono perché la tecnologia sottostante è così complessa che diventa impossibile per l’utente finale comprendere veramente il funzionamento interno di un sistema a scatola chiusa.

Una delle questioni più significative evidenziate è il modo in cui la definizione di IA responsabile cambia continuamente, poiché i valori sociali spesso non rimangono coerenti nel tempo.

Mi è piaciuto molto leggere “Il dilemma dell’intelligenza artificiale”. È un libro che non sensazionalizza i pericoli dell'intelligenza artificiale né approfondisce le potenziali insidie ​​dell'intelligenza generale artificiale (AGI). Invece, i lettori apprendono i modi sorprendenti in cui i nostri dati personali vengono utilizzati a nostra insaputa, nonché alcuni degli attuali limiti dell’intelligenza artificiale e motivi di preoccupazione.

Di seguito sono riportate alcune domande progettate per mostrare ai nostri lettori cosa possono aspettarsi da questo libro innovativo.

Cosa ti ha ispirato inizialmente a scrivere “The AI ​​Dilemma”?

Juliette è andata alla Columbia anche per studiare i limiti e le possibilità di regolamentazione dell'intelligenza artificiale. Aveva sentito in prima persona da amici che lavoravano su progetti di intelligenza artificiale la tensione insita in quei progetti. È arrivata alla conclusione che esisteva un dilemma dell’intelligenza artificiale, un problema molto più grande dell’autoregolamentazione. Ha sviluppato il modello di riferimento Apex, un modello di come le decisioni sull’intelligenza artificiale tendevano a una bassa responsabilità a causa delle interazioni tra aziende e gruppi all’interno delle aziende. Ciò ha portato alla sua tesi.

Art aveva lavorato con Juliette su numerosi progetti di scrittura. Ha letto la sua tesi e ha detto: "Hai un libro qui". Juliette lo ha invitato a esserne coautore. Lavorando insieme, hanno scoperto di avere prospettive molto diverse ma di condividere una visione forte secondo cui questo fenomeno dell’intelligenza artificiale complesso e altamente rischioso avrebbe bisogno di essere compreso meglio in modo che le persone che lo utilizzano possano agire in modo più responsabile ed efficace.

Uno dei problemi fondamentali che viene evidenziato in The AI ​​Dilemma è come sia attualmente impossibile capire se un sistema di AI sia responsabile o se perpetui la disuguaglianza sociale semplicemente studiandone il codice sorgente. Quanto è grande questo problema?

Il problema non riguarda principalmente il codice sorgente. Come sottolinea Cathy O'Neil, quando esiste un sistema a scatola chiusa, non conta solo il codice. È il sistema sociotecnico – le forze umane e tecnologiche che si modellano a vicenda – che deve essere esplorato. La logica che ha costruito e rilasciato il sistema di intelligenza artificiale prevedeva l’identificazione di uno scopo, l’identificazione dei dati, la definizione delle priorità, la creazione di modelli, l’impostazione di linee guida e barriere per l’apprendimento automatico e la decisione quando e come un essere umano dovrebbe intervenire. Questa è la parte che deve essere resa trasparente, almeno agli osservatori e ai revisori dei conti. Il rischio di disuguaglianza sociale e altri rischi sono molto maggiori quando queste parti del processo sono nascoste. Non puoi davvero riprogettare la logica di progettazione dal codice sorgente.