..::ARCHIVIO TESTUALE DI http://www.marotochi.it

DATA: 2025-02-03



AI Act: ban per sistemi AI con rischio inaccettabile


A partire dal 2 febbraio 2025 vengono applicate le dispositivi dell'AI Act che vietano l'uso dei sistemi di intelligenza artificiale con rischio inaccettabile. Questa è la prima scadenza del regolamento entrato in vigore il 1 agosto 2024. La timeline completa è disponibile sul sito ufficiale.
Ban per i sistemi AI con rischio inaccettabile

L'AI Act prevede una serie di regole per i sistemi di intelligenza artificiale suddivise in base al livello di rischio. L'applicazione avverrà in maniera graduale fino al 2 agosto 2027. La prima scadenza (2 febbraio 2025) riguarda i sistemi AI con rischio inaccettabile che sono assolutamente vietati perché violano i diritti fondamentali delle persone. Questo è un elenco non esaustivo di usi vietati:

sfruttamento delle vulnerabilità delle persone, manipolazione e utilizzo di tecniche subliminali
punteggio sociale per finalità pubbliche e private
attività di polizia predittiva individuale basate unicamente sulla profilazione delle persone
scraping non mirato di immagini facciali da Internet o telecamere a circuito chiuso per la creazione o l'ampliamento di banche dati
riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, eccetto per motivi medici o di sicurezza (ad esempio il monitoraggio dei livelli di stanchezza di un pilota)
categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche o orientamento sessuale. Sarà ancora possibile etichettare o filtrare set di dati e categorizzare i dati nell'ambito delle attività delle forze dell'ordine
identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle forze dell'ordine

Per l'ultimo uso sono previste alcune eccezioni. L'identificazione biometrica remota in tempo reale è possibile solo in tre casi:

attività relative a 16 reati specifici molto gravi
ricerca mirata di specifiche vittime, rapimento, tratta e sfruttamento sessuale di esseri umani, persone scomparse
prevenzione di minacce per la vita o l'incolumità fisica delle persone o risposta a una minaccia attuale o prevedibile di attacco terroristico

È comunque necessaria un'autorizzazione preventiva rilasciata da un'autorità giudiziaria o amministrativa indipendente. Tale autorizzazione dovrebbe essere preceduta da una valutazione preventiva d'impatto sui diritti fondamentali e dovrebbe essere notificata alle autorità di vigilanza del mercato e per la protezione dei dati.

In caso di violazione, le aziende rischiano sanzioni fino a 35 milioni di euro o il 7% delle entrate globali annuali. Quasi 170 aziende hanno sottoscritto gli AI Pact, impegnandosi a rispettare le regole prima della loro applicazione. Nell'elenco ci sono molte aziende che sviluppano sistemi AI, tra cui OpenAI, Amazon e Microsoft. Non ci sono invece Apple, Meta, NVIDIA, Mistral AI, Anthropic e Inflection AI.

di Luca Colantuoni


FONTE: https://www.punto-informatico.it

RAGGIUNGIBILE ALL'INDIRIZZO:
https://www.punto-informatico.it/ai-act-ban-sistemi-ai-rischio-inaccettabile/