TEMPO DI LETTURA: 3 minuti

Il 24 novembre l’Italia ha aderito al programma strategico per l’Intelligenza artificiale unendo le sinergie di tre ministeri:

  • Università e Ricerca
  • Sviluppo Economico
  • Innovazione Tecnologica e Transizione Digitale

secondo le definizioni europee contenute nell’Ai Act.

La cornice europea

Nell’ambito della cornice europea, l’Italia definisce 5 principi guida.

In primo luogo l’intelligenza Artificiale Italiana deve essere l’intelligenza Artificiale Europea. In secondo luogo l’Italia dovrà diventare un polo globale per la ricerca nell’ambito dell’Intelligenza Artificiale. Tanto che il terzo principio parla di Intelligenza Artificiale che dovrà diventare Antropocentrica, Affidabile e Sostenibile. In quarto luogo ci si impegna a promuoverne lo sviluppo e l’adozione da parte di imprese pubbliche e private come quinto punto. Spingendosi a parlare di investimento pubblico e privato.

La commissione europea in particolare ha introdotto un Digital Economy and Society Index (Desi) che definirà le competenze minime che dovranno raggiungere le pubbliche amministrazioni e cittadini. Verranno così a definirsi dei cambiamenti anche a livello di istruzione di primo livello ed in particolare nei programmi di studio degli Istituti Tecnici.

Dovrà inoltre realizzarsi una pubblica amministrazione più moderna, soprattutto fondandosi su piattaforme informatiche che dialogano tra loro.

La formalizzazione di tutto questo si manifesterà grazie ad un fondo denominato per la repubblica digitale, con progetti aventi la funzione di aumentare le competenze informatiche e realizzare nuove attività di formazione ed inclusione digitale così da migliorare il Digital Economy and Society Index. L’AI in particolare è vista come un’opportunità per l’Italia che permetterà di avvicinare mondo accademico e ricerca con le imprese e la società civile.

L’area giuridica

L’Europa a differenza di Stati Uniti e Cina ha voluto dare una disciplina precisa relativamente alla IA (Intelligenza Artificiale).
Quando si parla di legislazione della IA si rischia di cadere in due situazioni: la paura dell’IA e la retorica dell’IA.

La paura dell’IA si è declinata nella risoluzione del parlamento europeo del 2017 che ha adottato le 3 leggi della robotica di Asimov (clicca qui). Questo induce a realizzare un controllo totale sulla IA, senza capire che l’IA rappresenta qualcosa di nuovo che ha bisogno di svilupparsi e non essere bloccata da fardelli normativi.

La seconda situazione che è di carattere retorico, è considerare l’IA come un soggetto intelligente quando invece non lo è, essendo un IA un sistema che non riproduce il ragionamento, la percezione e l’apprendimento umani, ma semplicemente raggiunge risultati forse migliori dell’intelligenza umana, ma usando vie completamente diverse.

Quello che però va evitato è di permettere all’IA di raggiungere risultati ripetitivi, conformisti e poco innovativi. Infatti, questo non è lo scopo per cui è stata implementata l’IA.

 

Tratto da IlSole24Ore del 07/12/2021.