
CERNAI è un centro di ricerca dedicato allo studio del ragionamento, della normatività e dell’intelligenza artificiale, all’intersezione tra diritto, filosofia e logica. Con sede presso l’Università di Pavia, il CERNAI indaga come gli agenti umani e artificiali ragionino passando dai casi ai principi, agiscano in condizioni di incertezza e giustifichino le decisioni all’interno di sistemi normativi.
Radicato nel lavoro fondativo del progetto GENERIC (finanziato dal programma FIS2) sul ragionamento generico, il centro riunisce ricercatori di filosofia del diritto, logica formale, etica, scienze cognitive e intelligenza artificiale con i seguenti obiettivi:
- Promuovere la comprensione formale e concettuale del ragionamento non deduttivo e tollerante alle eccezioni;
- Esplorare l’epistemologia e la semantica delle generalizzazioni nel diritto, nella scienza e negli agenti artificiali;
- Sviluppare quadri normativi per un’IA affidabile (trustworthy AI), fondati su un ragionamento di tipo umano (human-like) e sulla responsabilità giuridica (legal accountability);
- Sostenere la formazione interdisciplinare all’intersezione tra logica, diritto e apprendimento automatico (machine learning);
- Offrire una sede istituzionale per collaborazioni di ricerca, visiting scholar e progetti di dottorato.
Attraverso seminari, borse di ricerca, collaborazioni applicate e iniziative di divulgazione pubblica, il CERNAI mira a plasmare il modo in cui le società comprendono e governano il ragionamento nei sistemi sia umani che artificiali, assicurandone l’allineamento con i valori democratici, l’equità e la responsabilità epistemica.
Linee di Ricerca Attuali
Fondamenti del Ragionamento e della Logica Semantica iperintensionale, inferenza rivedibile (defeasible inference), normatività, logica deontica, ragionamento generico.
IA e Generalizzazione Generalizzazione nei LLM e negli agenti IA, allineamento consapevole della genericità (genericity-aware alignment), ragionamento dell’IA spiegabile (explainable AI).
Allineamento Agenti IA basati su ragioni (reasons-based AI Agents), IA rispettosa della legge (law-following AI).
Agency dell’IA e Rischio Agenziale Modelli formali delle intenzioni negli agenti IA, modelli formali di rischio agenziale ed esistenziale.