L’intelligenza artificiale ci spaventa e ci intriga. Quasi ogni settimana, c’è un nuovo allarme AI nelle notizie come gli sviluppatori che chiudono i bot perché sono diventati troppo intelligenti. La maggior parte di queste notizie sono il risultato di una ricerca sull’IA male interpretata da chi non è del settore. Per i fondamenti dell’IA, sentitevi liberi di leggere il nostro articolo completo sull’IA.

La più grande paura sull’IA è la singolarità (chiamata anche Intelligenza Generale Artificiale), un sistema capace di pensare a livello umano. Secondo alcuni esperti, la singolarità implica anche la coscienza della macchina. Indipendentemente dal fatto che sia cosciente o meno, una tale macchina potrebbe continuamente migliorarsi e arrivare ben oltre le nostre capacità. Anche prima che l’intelligenza artificiale fosse un argomento di ricerca in informatica, scrittori di fantascienza come Asimov erano preoccupati di questo e stavano escogitando meccanismi (cioè le Leggi della Robotica di Asimov) per assicurare la benevolenza delle macchine intelligenti.

Per coloro che sono venuti per avere risposte veloci:

  • La singolarità avverrà mai? Secondo la maggior parte degli esperti di IA, sì.
  • Quando avverrà la singolarità? Prima della fine del secolo

Le risposte più sfumate sono qui sotto. Ci sono stati diversi sondaggi e ricerche di scienziati di IA che hanno chiesto quando avverranno tali sviluppi.

Capire i risultati dei principali sondaggi dei ricercatori di IA in 2 minuti

Abbiamo esaminato i risultati di 4 sondaggi con 995 partecipanti in cui i ricercatori stimavano quando sarebbe avvenuta la singolarità. In tutti i casi, la maggioranza dei partecipanti si aspettava la singolarità dell’IA prima del 2060.

Fonte: Sondaggio distribuito ai partecipanti alla conferenza Artificial General Intelligence 2009 (AGI-09)

Nel 2009, sono stati intervistati 21 esperti di AI partecipanti alla conferenza AGI-09. Gli esperti credono che AGI si verificherà intorno al 2050, e plausibilmente prima. Potete vedere sopra le loro stime riguardo a specifici risultati dell’IA: superare il test di Turing, passare la terza elementare, realizzare scoperte scientifiche degne del Nobel e raggiungere un’intelligenza sovrumana.

Nel 2012/2013, Vincent C. Muller, il presidente dell’Associazione Europea per i Sistemi Cognitivi, e Nick Bostrom dell’Università di Oxford, che ha pubblicato oltre 200 articoli sulla superintelligenza e l’intelligenza artificiale generale (AGI), hanno condotto un sondaggio sui ricercatori di IA. 550 partecipanti hanno risposto alla domanda: “Quando è probabile che avvenga l’AGI?” Le risposte sono distribuite come

  • il 10% dei partecipanti pensa che AGI è probabile che accada entro il 2022
  • Per il 2040, la quota è del 50%
  • 90% dei partecipanti pensa che AGI è probabile che accada entro il 2075.

Nel maggio 2017, sono stati intervistati 352 esperti di AI che hanno pubblicato alle conferenze NIPS e ICML del 2015. Sulla base dei risultati del sondaggio, gli esperti stimano che c’è una probabilità del 50% che AGI si verifichi fino al 2060. Tuttavia, c’è una significativa differenza di opinione basata sulla geografia: Gli intervistati asiatici si aspettano l’AGI tra 30 anni, mentre i nordamericani se la aspettano tra 74 anni. Alcune funzioni lavorative significative che dovrebbero essere automatizzate fino al 2030 sono: Rappresentanti di call center, guida di camion, vendite al dettaglio.

Nel 2019, 32 esperti di AI hanno partecipato a un sondaggio sui tempi di AGI:

  • 45% degli intervistati prevede una data prima del 2060
  • 34% di tutti i partecipanti ha previsto una data dopo il 2060
  • 21% dei partecipanti ha previsto che la singolarità non avverrà mai.

Anche gli imprenditoriAI stanno facendo delle stime su quando raggiungeremo la singolarità e sono un po’ più ottimisti dei ricercatori:

  • Louis Rosenberg, informatico, imprenditore e scrittore: 2030
  • Patrick Winston, professore del MIT e direttore del MIT Artificial Intelligence Laboratory dal 1972 al 1997: 2040
  • Ray Kuzweil, informatico, imprenditore e scrittore di 5 best seller nazionali tra cui The Singularity Is Near: 2045
  • Jürgen Schmidhuber, co-fondatore della società di IA NNAISENSE e direttore del laboratorio svizzero di IA IDSIA: ~2050

Tenete a mente che i ricercatori di IA erano troppo ottimisti prima

Gli esempi includono:

  • Il pioniere dell’IA Herbert A. Simon nel 1965: “Le macchine saranno in grado, entro vent’anni, di fare qualsiasi lavoro che un uomo può fare”
  • Il computer giapponese di quinta generazione nel 1980 aveva una tempistica di dieci anni con obiettivi come “portare avanti conversazioni casuali”

Questa esperienza storica contribuisce alla maggior parte degli scienziati attuali che evitano di prevedere l’AGI in tempi audaci come 10-20 anni. Tuttavia, solo perché ora sono più conservatori non significa che questa volta abbiano ragione.

Capire perché raggiungere l’AGI sembra inevitabile per la maggior parte degli esperti

Queste possono sembrare previsioni selvagge, ma sembrano abbastanza ragionevoli se si considerano questi fatti:

  • L’intelligenza umana è fissa a meno che non fondiamo in qualche modo le nostre capacità cognitive con le macchine. La startup neural lace di Elon Musk mira a questo, ma la ricerca sui lacci neurali è nelle fasi iniziali.
  • L’intelligenza delle macchine dipende da algoritmi, potenza di elaborazione e memoria. La potenza di elaborazione e la memoria sono cresciute ad un ritmo esponenziale. Per quanto riguarda gli algoritmi, fino ad ora siamo stati bravi a fornire alle macchine gli algoritmi necessari per utilizzare efficacemente la loro potenza di elaborazione e la loro memoria.

Considerando che la nostra intelligenza è fissa e l’intelligenza delle macchine sta crescendo, è solo una questione di tempo prima che le macchine ci superino a meno che non ci sia qualche limite rigido alla loro intelligenza. Non abbiamo ancora incontrato un tale limite.

Questa è una buona analogia per capire la crescita esponenziale. Mentre le macchine possono sembrare stupide in questo momento, possono diventare molto intelligenti, molto presto.

Fonte: Mother Jones

Se l’informatica classica rallenta la sua crescita, l’informatica quantistica potrebbe completarla

L’informatica classica ci ha portato abbastanza lontano. Gli algoritmi di IA sui computer classici possono superare le prestazioni umane in compiti specifici come giocare a scacchi o a Go. Per esempio, AlphaGo Zero ha battuto AlphaGo per 100-0. AlphaGo ha battuto i migliori giocatori della terra. Tuttavia, ci stiamo avvicinando ai limiti della velocità dei computer classici.

La legge di Moore, che si basa sull’osservazione che il numero di transistor in un circuito integrato denso raddoppia ogni due anni circa, implica che il costo dell’informatica si dimezza ogni 2 anni circa. Tuttavia, la maggior parte degli esperti crede che la legge di Moore stia per finire durante questo decennio. Anche se ci sono sforzi per continuare a migliorare le prestazioni delle applicazioni, sarà difficile mantenere gli stessi tassi di crescita.

Il Quantum Computing, che è ancora una tecnologia emergente, può contribuire a ridurre i costi di calcolo dopo la fine della legge di Moore. Il Quantum Computing si basa sulla valutazione di diversi stati allo stesso tempo, mentre i computer classici possono calcolare uno stato alla volta. La natura unica dell’informatica quantistica può essere usata per addestrare in modo efficiente le reti neurali, attualmente l’architettura AI più popolare nelle applicazioni commerciali. Gli algoritmi di IA che girano su computer quantistici stabili hanno la possibilità di sbloccare la singolarità.

Per maggiori informazioni sui computer quantistici non esitate a leggere i nostri articoli sul quantum computing.

Capire perché alcuni non credono che non raggiungeremo mai l’AGI

Ci sono 3 argomenti principali contro l’importanza o l’esistenza dell’AGI. Li abbiamo esaminati insieme alle loro confutazioni comuni:

1- L’intelligenza è multidimensionale

Quindi l’AGI sarà diversa, non superiore all’intelligenza umana. Questo è vero e l’intelligenza umana è anche diversa da quella animale. Alcuni animali sono capaci di incredibili prodezze mentali come gli scoiattoli che ricordano dove hanno nascosto centinaia di noci per mesi.

Tuttavia, queste differenze non impediscono agli esseri umani di ottenere molto di più di altre specie in termini di molte misure tipiche di successo per una specie. Per esempio, l’homo sapiens è la specie che contribuisce maggiormente alla biomassa del globo tra i mammiferi.

Diverse dimensioni di intelligenza
Fonte: Kevin Nelly

2- L’intelligenza non è la soluzione a tutti i problemi

Per esempio, anche la migliore macchina che analizza i dati esistenti non sarà probabilmente in grado di trovare una cura per il cancro. Avrà bisogno di eseguire esperimenti e analizzare i risultati per scoprire nuove conoscenze nella maggior parte dei settori.

Questo è vero con alcuni caveat. Più intelligenza può portare a esperimenti meglio progettati e gestiti, consentendo più scoperte per esperimento. La storia della produttività della ricerca dovrebbe probabilmente dimostrarlo, ma i dati sono piuttosto rumorosi e c’è un rendimento decrescente nella ricerca. Incontriamo problemi più difficili come la fisica quantistica mentre risolviamo problemi più semplici come il moto newtoniano.

3- AGI non è possibile perché non è possibile modellare il cervello umano

Teoricamente è possibile modellare qualsiasi macchina computazionale incluso il cervello umano con una macchina relativamente semplice che può eseguire calcoli di base e ha accesso a memoria e tempo infiniti. Questa è l’ipotesi Church-Turing enunciata nel 1950. È universalmente accettata. Tuttavia, come detto, richiede alcune condizioni difficili: tempo e memoria infiniti.

La maggior parte degli scienziati informatici crede che ci vorrà meno di tempo e memoria infiniti per modellare il cervello umano. Tuttavia, non c’è un modo matematicamente valido per provare questa convinzione, poiché non comprendiamo il cervello abbastanza per capire esattamente la sua potenza di calcolo. Dovremo solo costruire una tale macchina!

E non ci siamo ancora riusciti. Anche se il modello linguistico GPT-3 lanciato nel giugno 2020 ha suscitato grande entusiasmo per la sua fluidità, la sua mancanza di comprensione logica rende il suo output soggetto a errori. Per un esempio più drammatico, questo è un video di ciò che accade quando le macchine giocano a calcio. È un po’ datato (del 2017) ma fa sentire anche me una leggenda del calcio in confronto:

Per saperne di più sull’Intelligenza Generale Artificiale

Lezione di Ray Kurzweil:

Joshua Brett Tenenbaum, professore di Scienze Cognitive e Computazione al MIT, sta spiegando come possiamo raggiungere la singolarità dell’AGI:

Spero che questo chiarisca alcuni dei punti principali riguardanti l’AGI. Per saperne di più su come l’AI sta cambiando il mondo, potete controllare gli articoli sull’AI, le tecnologie AI e le applicazioni AI nel marketing, vendite, servizio clienti, IT, dati o analisi. Oppure potete seguire la nostra pagina Linkedin dove condividiamo come l’AI sta impattando le aziende e gli individui o il nostro account Twitter.

E se avete un problema di business che non viene affrontato qui:

Fateci trovare il fornitore giusto per il vostro business

Categorie: Articles

0 commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *