Foren

AI Forum 2022

Donnerstag
24.
November  2022
AI Forum 2022
Ort: Berlin & online |  09:00 Uhr bis 16:30 Uhr

Als gemeinsame Veranstaltung von Bundesamt für Sicherheit in der Informationstechnik (BSI), TÜV-Verband und Fraunhofer Heinrich-Hertz-Institut (Fraunhofer HHI) findet auch in diesem Jahr wieder das AI Forum statt. Mit internationalen Expert:innen und allen Interessierten wollen wir dort den Dialog zum aktuellen Stand und den Herausforderungen bei der Auditierbarkeit von KI-Systemen suchen: Im nunmehr dritten internationalen Workshop „Auditing AI-Systems: From Use Cases to Standardization and Regulation“ liegt unser Schwerpunkt in diesem Jahr auf der Erklärbarkeit von KI (engl. “Explainable AI”, kurz XAI) mit Fokus auf Anwendungen in der Medizin bzw. Gesundheitsbereich. Neben spannenden internationalen, interdisziplinären und intersektoralen Einblicken baut das Forum, das am Vortag der TÜV AI Conference 2022 stattfindet, auch auf der gemeinsamen Whitepaper-Serie der beteiligten Partner auf: Zuletzt wurde im Mai 2022 das  Whitepaper „Towards Auditable AI-Systems: From Principles to Practice“ veröffentlicht, in dem erstmalig eine „Certification Readiness Matrix“ (CRM) vorgestellt wurde.

Die Veranstaltung findet auf Englisch statt und die Teilnahme ist kostenlos. Sie können sich direkt für die Online-Teilnahme anmelden oder für einen der begrenzten Plätze vor Ort. Haben Sie bitte Verständnis dafür, dass wir aufgrund eingeschränkter Kapazitäten die Plätze für die Vor-Ort-Teilnahme über eine Warteliste vergeben müssen. 

Das Programm und Kurzbeschreibungen zur Veranstaltung können Sie auch hier downloaden.

Hier gelangen Sie zu den Themen und Ergebnissen des AI Forums 2021.

Bitte registrieren Sie sich hier für die Vor-Ort-Teilnahme.

Bitte  haben Sie Verständnis dafür, dass wir aufgrund eingeschränkter Kapazitäten die Plätze über eine Warteliste vergeben müssen. Wir informieren Sie nach Ihrer Registrierung persönlich, ob eine Teilnahme möglich sein wird.

Das AI Forum 2022 ist eine gemeinsame Veranstaltung von

Programm

"Auditing AI-Systems: From Use Cases to Standardization and Regulation"
 

3. internationaler Workshop

Ab 09:00 Uhr
Welcome Note

BSI | TÜV-Verband | Fraunhofer HHI

Ab 09:15 Uhr
Session 1: New Approaches from Research

Prof. Dr. Wojciech Samek | Fraunhofer HHI, Berlin, Germany: Concept-Level Explainable AI

 

Prof. Dr. Matthias Hein | University of Tübingen, Germany: Adversarial Robustness - the good and the ugly

 

Sinem Sav | EPFL Lausanne, Switzerland: Privacy-preserving federated neural network learning

Ab 10:45 Uhr
Coffee Break 
Ab 11:00 Uhr
Session 2: Auditing AI Systems in Practice

P.h.D. Vince Istvan Madai | Charité - Universitätsmedizin Berlin, Germany: To explain or not to explain? XAI in healthcare

 

Ken Cassar | UMNAI: Inherently Auditable Neuro-Symbolic AI

 

Luis Oala | Fraunhofer HHI, Berlin, Germany: Best Practices and Toolboxes for Auditing AI Systems in Healthcare

Ab 12:30 Uhr
Lunch 
Ab 13:30 Uhr
Session 3: General Aspects, Standardization and Regulation

Prof. Dr. Edson Prestes | Federal University of Rio Grande do Sul, Brazil: IEEE 7007 - Ontological Standard for Ethically Driven Robotics and Automation Systems

 

Dr. Julien Chiaroni | Directeur du Grand Défi, SGPI, France: The French approach: How to operationalize the European AI Act

 

Dr. Dirk Schlesinger | TÜV AI Lab, Berlin, Germany: German Standardization Roadmap AI - Working Group Medicine

 

Martin R. | National Cyber Security Center, Manchester, UK (tbc): Developing principles for the security of Machine Learning systems

Ab 15:30 Uhr
Coffee Break 
Ab 15:45 Uhr
Panel Discussion & Closing Remarks

Do we really need XAI for trustworthy AI applications in healthcare?

TAG 1 - 24.11.2022, Donnerstag
Ab 09:00 Uhr
Welcome Note

BSI | TÜV-Verband | Fraunhofer HHI

Ab 09:15 Uhr
Session 1: New Approaches from Research

Prof. Dr. Wojciech Samek | Fraunhofer HHI, Berlin, Germany: Concept-Level Explainable AI

 

Prof. Dr. Matthias Hein | University of Tübingen, Germany: Adversarial Robustness - the good and the ugly

 

Sinem Sav | EPFL Lausanne, Switzerland: Privacy-preserving federated neural network learning

Ab 10:45 Uhr
Coffee Break 
Ab 11:00 Uhr
Session 2: Auditing AI Systems in Practice

P.h.D. Vince Istvan Madai | Charité - Universitätsmedizin Berlin, Germany: To explain or not to explain? XAI in healthcare

 

Ken Cassar | UMNAI: Inherently Auditable Neuro-Symbolic AI

 

Luis Oala | Fraunhofer HHI, Berlin, Germany: Best Practices and Toolboxes for Auditing AI Systems in Healthcare

Ab 12:30 Uhr
Lunch 
Ab 13:30 Uhr
Session 3: General Aspects, Standardization and Regulation

Prof. Dr. Edson Prestes | Federal University of Rio Grande do Sul, Brazil: IEEE 7007 - Ontological Standard for Ethically Driven Robotics and Automation Systems

 

Dr. Julien Chiaroni | Directeur du Grand Défi, SGPI, France: The French approach: How to operationalize the European AI Act

 

Dr. Dirk Schlesinger | TÜV AI Lab, Berlin, Germany: German Standardization Roadmap AI - Working Group Medicine

 

Martin R. | National Cyber Security Center, Manchester, UK (tbc): Developing principles for the security of Machine Learning systems

Ab 15:30 Uhr
Coffee Break 
Ab 15:45 Uhr
Panel Discussion & Closing Remarks

Do we really need XAI for trustworthy AI applications in healthcare?

Haben Sie Fragen zu diesem Event?

Dr. Patrick Gilroy

Referent Künstliche Intelligenz und Bildung

+49 30 760095-360

patrick.gilroy@tuev-verband.de