19 Gen

Potenziale di attacco: la metrica che rende “reale” una vulnerabilitàSokol Kolgjini

Il potenziale di attacco non riguarda quante difese hai, ma quanto costi imponi a chi prova a colpirti. Proprio come nel furto al Louvre: allarmi, telecamere e personale c’erano, ma non hanno aumentato abbastanza tempo, frizione e rischio per gli...

By

,

Commenti disabilitati su Potenziale di attacco: la metrica che rende “reale” una vulnerabilitàSokol Kolgjini Read More
19 Gen

Cosa serve all’Italia per competere con l’AIGiorgio De Nardi

Alla Silicon Valley non interessa il passato né il titolo accademico, ma conta solo quanto velocemente riesci a trasformare un’intuizione in un prodotto scalabile e redditizio. Ecco alcuni esempi che dimostrano perché l’Italia non può limitarsi ad osservare, ma deve...

By

,

Commenti disabilitati su Cosa serve all’Italia per competere con l’AIGiorgio De Nardi Read More
19 Gen

Il pregiudizio del pensiero: quando l’IA ci costringe a ripensare noi stessiRiccardo Manzotti

Gli LLM dialogano con abilità, ma negar loro il pensiero spesso rivela un pregiudizio: agli umani basta poco per parlare di “mente”, alle macchine no. Ridurre tutto al “next token” è fuorviante perché predire implica modellare senso. La differenza decisiva...

By

,

Commenti disabilitati su Il pregiudizio del pensiero: quando l’IA ci costringe a ripensare noi stessiRiccardo Manzotti Read More
19 Gen

BNN: il modello matematico che “anticipa” la neurodegenerazioneMarco Armoni e Imma Orilio

Un modello matematico-computazionale interpreta le patologie neurodegenerative come transizioni di fase in reti sinaptiche. Equazioni differenziali, grafi e analisi spettrale collegano perdita sinaptica, infiammazione e aggregazione proteica a instabilità e aumento di entropia, anticipando il collasso funzionale oltre soglie critiche L'articolo...

By

,

Commenti disabilitati su BNN: il modello matematico che “anticipa” la neurodegenerazioneMarco Armoni e Imma Orilio Read More
19 Gen

Cybersecurity degli agenti AI: rischi reali e difese pratiche per le aziendeGerardo Costabile

Gli agenti AI rafforzano automazione e difesa, ma introducono nuove vulnerabilità: avvelenamento dei dati, prompt injection, evasion e attacchi alla riservatezza. La protezione richiede modelli robusti, monitoraggio runtime, Zero Trust, governance e tracciabilità con XAI per limitare impatti e responsabilità L'articolo...

By

,

Commenti disabilitati su Cybersecurity degli agenti AI: rischi reali e difese pratiche per le aziendeGerardo Costabile Read More