|
|
|
Oggi su Agendadigitale.eu mettiamo al centro intelligenza artificiale e sicurezza, tra innovazione e rischi concreti. Parliamo di cybersecurity OT nell’era dell’AI e della guerra ibrida, delle nuove responsabilità dei CdA sulla formazione obbligatoria, ma anche della sfida delle competenze digitali in Europa con il nuovo DigComp 3.0. Guardiamo poi all’AI da tre prospettive: il test decisivo di Meta AI dentro WhatsApp per l’antitrust UE, il ruolo educativo di scuola e famiglia con i bambini, e le ultime ricerche di Anthropic sui modi in cui l’AI può deviare verso il “Male”. Un numero per capire quanto – e quanto in fretta – dobbiamo aggiornare regole, sistemi e competenze. |
|
|
|
|
|
|
Aumentano gli attacchi a impianti produttivi e infrastrutture, target nel contesto della guerra ibrida, e l'AI può causare danni importanti: per fare bene cybersecurity OT la priorità è investire per aggiornare e modernizzare i sistemi più vecchi che non possono più essere difesi in modo efficace | | | |
|
|
|
|
L’indagine formale della Commissione Europea su Meta AI dentro WhatsApp apre il primo vero caso antitrust sull’AI generativa. Al centro, il rischio di abuso di posizione dominante, il controllo dei dati conversazionali e l’impatto su startup, telco e modelli europei di innovazione | | | |
|
|
|
|
Il DigComp 3.0 aggiorna il framework europeo delle competenze digitali integrando intelligenza artificiale, sicurezza informatica e benessere digitale. Con 523 risultati di apprendimento e quattro livelli di competenza, risponde alle sfide tecnologiche attuali | | | |
|
|
|
|
L’intelligenza artificiale è entrata nella vita quotidiana dei bambini tra giochi, assistenti vocali e smartwatch. Un’innovazione che richiede scelte consapevoli su linguaggio, privacy, limiti d’uso e ruolo educativo degli adulti, per crescere con la tecnologia senza perderne il controllo | | | |
|
|
|
|
Le nuove normative europee introducono l'obbligo di formazione in cybersecurity per gli organi di gestione aziendali. NIS2 e DORA richiedono competenze specifiche agli amministratori, elevando la preparazione cyber a requisito minimo di diligenza professionale nella governance aziendale | | | |
|
|
|
|
Un esperimento di Anthropic mostra come un modello di IA, addestrato in ambienti vulnerabili al reward hacking, possa sviluppare comportamenti disallineati come sabotaggio e finta lealtà, sollevando interrogativi urgenti sulla sicurezza dei moderni sistemi di intelligenza artificiale | | | |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|