
CERNAI è un centro di ricerca dedicato allo studio del ragionamento, della normatività e dell’intelligenza artificiale, all’intersezione tra diritto, filosofia e logica. Con sede presso l’Università di Pavia, CERNAI indaga i fondamenti formali e normativi del ragionamento per i sistemi di intelligenza artificiale — come gli agenti artificiali dovrebbero ragionare riguardo a obblighi, valori, rischi e leggi.
Radicato nel lavoro fondativo del progetto GENERIC (finanziato dal programma FIS2) sul ragionamento generico, il centro riunisce ricercatori di filosofia del diritto, logica formale, etica, scienze cognitive e intelligenza artificiale con i seguenti obiettivi:
- Promuovere la comprensione formale e concettuale del ragionamento non deduttivo e tollerante alle eccezioni;
- Esplorare l’epistemologia e la semantica delle generalizzazioni nel diritto, nella scienza e negli agenti artificiali;
- Sviluppare quadri normativi per un’IA affidabile (trustworthy AI), fondati su un ragionamento di tipo umano (human-like) e sulla responsabilità giuridica (legal accountability);
- Sostenere la formazione interdisciplinare all’intersezione tra logica, diritto e apprendimento automatico (machine learning);
- Offrire una sede istituzionale per collaborazioni di ricerca, visiting scholar e progetti di dottorato.
Attraverso seminari, borse di ricerca, collaborazioni applicate e iniziative di divulgazione pubblica, il CERNAI mira a plasmare il modo in cui le società comprendono e governano il ragionamento nei sistemi sia umani che artificiali, assicurandone l’allineamento con i valori democratici, l’equità e la responsabilità epistemica.
Linee di Ricerca Attuali
Fondamenti del Ragionamento e della Logica Semantica iperintensionale, inferenza rivedibile (defeasible inference), normatività, logica deontica, ragionamento generico.
IA e Generalizzazione Generalizzazione nei LLM e negli agenti IA, allineamento consapevole della genericità (genericity-aware alignment), ragionamento dell’IA spiegabile (explainable AI).
Allineamento Agenti IA basati su ragioni (reasons-based AI Agents), IA rispettosa della legge (law-following AI).
Agency dell’IA e Rischio Agenziale Modelli formali delle intenzioni negli agenti IA, modelli formali di rischio agenziale ed esistenziale.