CERNAI è un centro di ricerca dedicato allo studio del ragionamento, della normatività e dell’intelligenza artificiale, all’intersezione tra diritto, filosofia e logica. Con sede presso l’Università di Pavia, CERNAI indaga i fondamenti formali e normativi del ragionamento per i sistemi di intelligenza artificiale — come gli agenti artificiali dovrebbero ragionare riguardo a obblighi, valori, rischi e leggi.

Radicato nel lavoro fondativo del progetto GENERIC (finanziato dal programma FIS2) sul ragionamento generico, il centro riunisce ricercatori di filosofia del diritto, logica formale, etica, scienze cognitive e intelligenza artificiale con i seguenti obiettivi:

  • Promuovere la comprensione formale e concettuale del ragionamento non deduttivo e tollerante alle eccezioni;
  • Esplorare l’epistemologia e la semantica delle generalizzazioni nel diritto, nella scienza e negli agenti artificiali;
  • Sviluppare quadri normativi per un’IA affidabile (trustworthy AI), fondati su un ragionamento di tipo umano (human-like) e sulla responsabilità giuridica (legal accountability);
  • Sostenere la formazione interdisciplinare all’intersezione tra logica, diritto e apprendimento automatico (machine learning);
  • Offrire una sede istituzionale per collaborazioni di ricerca, visiting scholar e progetti di dottorato.

Attraverso seminari, borse di ricerca, collaborazioni applicate e iniziative di divulgazione pubblica, il CERNAI mira a plasmare il modo in cui le società comprendono e governano il ragionamento nei sistemi sia umani che artificiali, assicurandone l’allineamento con i valori democratici, l’equità e la responsabilità epistemica.

Linee di Ricerca Attuali

Fondamenti del Ragionamento e della Logica Semantica iperintensionale, inferenza rivedibile (defeasible inference), normatività, logica deontica, ragionamento generico.

IA e Generalizzazione Generalizzazione nei LLM e negli agenti IA, allineamento consapevole della genericità (genericity-aware alignment), ragionamento dell’IA spiegabile (explainable AI).

Allineamento Agenti IA basati su ragioni (reasons-based AI Agents), IA rispettosa della legge (law-following AI).

Agency dell’IA e Rischio Agenziale Modelli formali delle intenzioni negli agenti IA, modelli formali di rischio agenziale ed esistenziale.