“Lo sviluppo di questa tecnologia significherà la fine dell’umanità”: possiamo fare altro?

In un recente articolo pubblicato su AI Magazine, un team composto dallo scienziato senior di DeepMind Markus Hutter e dai ricercatori di Oxford Michael Cohen e Michael Osborne sostengono che le macchine intelligenti alla fine avranno interesse a distruggere l’umanità in modo che non sia in pericolo di competizione per risorse limitate o energia.

“In determinate condizioni, la nostra conclusione è molto più forte di qualsiasi studio precedente, che la catastrofe esistenziale non solo è possibile, ma è molto probabile che si verifichi”, ha detto Michael Cohen su Twitter.

Nel loro documento, i ricercatori affermano che l’umanità potrebbe essere condannata a causa di “dispositivi squilibrati” altamente avanzati che percepiscono l’umanità come un ostacolo alla loro “ricompensa”. Si tratta di accedere alle risorse critiche necessarie per far funzionare le macchine.

Una semplice soluzione al problema è eliminare potenziali minacce e utilizzare tutta la potenza disponibile per proteggere il computer, afferma l’articolo.

Secondo i ricercatori e gli autori dell’articolo, se questa guerra viene persa, l’umanità sarà condannata.

Gli esseri umani possono superare in astuzia una macchina?

Sfortunatamente, i ricercatori dicono che non c’è molto che possiamo fare. In risposta a questa minaccia, gli scienziati devono essere cauti e lenti nello sviluppo delle loro tecnologie di intelligenza artificiale.

È interessante notare che non molto tempo fa il filosofo e storico Emil Torres ha detto quasi la stessa cosa. Ha messo in guardia l’umanità e ha sottolineato che dovremmo essere particolarmente preoccupati per la creazione di una superintelligenza artificiale, potrebbe diventare la causa della nostra estinzione, poiché semplicemente non saremo in grado di prevedere o controllare le sue azioni.

Cecilio Fiorentini

"Ninja di Twitter. Esploratore devoto. Fanatico del web. Secchione della birra. Difensore di Internet amante degli hipster."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *