Il primo ministro svedese, Ulf Kristersson, ha suscitato un acceso dibattito politico ammettendo di utilizzare strumenti di intelligenza artificiale, come ChatGPT e LeChat, per ottenere “una seconda opinione” nelle sue decisioni di governo. Questa dichiarazione, riportata dal Guardian, ha innescato diverse reazioni.
Kristersson ha spiegato di utilizzare l’IA per avere “un punto di vista alternativo”, chiedendosi cosa altri abbiano fatto in situazioni simili e se sia opportuno adottare un approccio opposto. Tuttavia, questa trasparenza non è stata ben accolta da tutti.
Critiche sono arrivate da diversi esponenti della stampa svedese, che hanno accusato Kristersson di essere succube di una “psicosi dell’IA”, e da esperti del settore tecnologico. Una delle principali preoccupazioni riguarda la potenziale divulgazione involontaria di informazioni riservate attraverso l’utilizzo di questi strumenti. Recentemente, migliaia di conversazioni con ChatGPT sono state rese pubbliche, sollevando timori sulla privacy e sulla sicurezza dei dati.
Simone Fischer-Hübner, docente di informatica all’università di Karlstad, ha lanciato un avvertimento sull’utilizzo dell’IA in ambito governativo, sottolineando la necessità di cautela, soprattutto per quanto riguarda i dati sensibili. Il portavoce del premier, Tom Samuelsson, ha cercato di chiarire la situazione, affermando che Kristersson non condivide informazioni riservate e che l’IA viene utilizzata solo per ottenere spunti e curiosità.
Virginia Dignum, docente di Intelligenza Artificiale responsabile all’università di Umeå, ha espresso una critica più radicale, focalizzandosi non solo sulla sicurezza dei dati, ma anche sui principi democratici. Secondo Dignum, l’IA non può fornire opinioni politiche significative, poiché riflette i valori di chi l’ha progettata. L’eccessivo affidamento sull’IA, ha aggiunto, può portare a una fiducia eccessiva nel sistema, rischiando di compromettere il processo decisionale democratico. La sua critica si conclude con la frase emblematica: “Non abbiamo votato per ChatGPT”.
Il dibattito sollevato in Svezia evidenzia le complesse implicazioni etiche e pratiche legate all’utilizzo dell’intelligenza artificiale nel processo decisionale politico, ponendo interrogativi sulla trasparenza, sulla sicurezza dei dati e sulla stessa natura della democrazia nell’era digitale.