L’avvento di una intelligenza artificiale, una AI ostile e il suo dominio sul genere umano sono un tema centrale di dibattito fin dal secolo scorso.
Dal libro di E.M. Forster “La macchina si ferma”, datato 1909 alla recente serie TV “Westworld” passando per la saga di “Terminator”, il nostro immaginario collettivo ha già contemplato questa ipotesi. E ha ritenuto che l’avvento di una AI ostile sarebbe una carneficina.
Si tratta peraltro di un problema che potrebbe restare ipotetico ancora per poco. Scienziati ed Ingegneri sono seriamente preoccupati che questo “sorpasso” tra l’intelligenza umana e quella artificiale (che dovrebbe dare il via alla singolarità tecnologica paventata dai transumanisti) sia il più grande errore umano.
I trend attuali ci mostrano una vera e propria “corsa agli armamenti” per ottenere questa tecnologia, che darebbe un enorme vantaggio competitivo. La vera questione diventa questa, a ben vedere: come fermare questa corsa sfrenata e con poco criterio? Come permettere lo sviluppo più armonioso di una AI che rispetti una sua “etica” e dei parametri di sicurezza?
Развитие супер искусственного интеллекта сопряжено с двумя проблемами, поэтому вы не станете враждебным ИИ.
Prima sfida: l’unità di intenti. Serve che questa AI abbia in memoria (mente?) gli stessi obiettivi del genere umano. Senza, l’AI potrebbe “distrattamente” distruggere l’umanità valutandola come un orpello inutile, o un ostacolo da rimuovere.
Второй вызов: взаимность. Это политическая проблема, она заключается в обеспечении того, чтобы преимущества ИИ не доходили до небольшой элиты, вызывая пугающее социальное неравенство.
Con l’attuale modello di “corsa agli armamenti”, qualsiasi sviluppo di una AI tende ad ignorare queste due sfide per poter fare prima. Questo rende davvero concreto il pericolo della nascita di una AI ostile.
Возможные решения
Необходимы национальные политики, которые предотвращают необузданную конкуренцию, уменьшают беспорядок в компаниях и организациях, разрабатывающих ИИ, и устанавливают посты безопасности для тех, кто хочет конкурировать. Меньше битвы и больше правил означает меньшее давление и больше внимания к безопасности.
A suggerire iniziative pratiche per scongiurare l’avvento di una AI ostile è изучение исследователи Вим Науде и Никола Димитрий. Текущая картина описана с точностью, и она начинается сразу с опровержения: как ни странно, конкурентов уже немного, и это, однако, не гарантирует безопасность.
Группы и организации из США, Китая и Европы немногочисленны из-за огромных затрат на разработку ИИ, но они по-прежнему гиперконкурентны.
По этой причине, другие стратегии были бы полезны для национальных государств
Gli Stati hanno il dovere di “calmierare” la battaglia offrendo a più soggetti possibile delle commesse che li vincolino. Più soldi, anche molti di più per lo sviluppo delle AI, ma a determinate condizioni di sicurezza.
Possono altresí offrire aiuto a chi voglia sviluppare tecnologie di “contenimento” allo sviluppo di una AI, presupponendo che anche la più intelligente e ostile possa avere punti deboli e non essere del tutto invulnerabile.
Кроме того, сотрудничество может поощряться путем изменения налогов и стимулов в пользу тех, кто решит сотрудничать.
Общее благо
Oltre queste soluzioni (che lo studio spiega con maggior dettaglio) ce n’è una suprema, che è quella di scippare ai privati questo campo. Come per l’energia atomica o altre tecnologie e risorse ritenute vantaggiose e pericolose per tutti, serve che anche l’AI sia da considerare un bene comune, e tutelato perché non prenda strade sbagliate.
Nessuno è certo di nulla, attualmente. La stessa possibile natura ostile della AI è oggetto di discussione. Per alcuni scienziati non avverrà mai una “ribellione” del creato sul creatore. Per tanti altri ci sarà una fusione di uomini e AI, non verremo annientati ma migliorati.
In ogni caso il nostro pianeta e l’umanità potranno beneficiare enormemente dell’AI, и знаки уже видны сегодня.