
Prof. Dr. Zeynep Akata
Kontakt
Wissenschaftliche Laufbahn und Forschungsgebiete
Prof Akatas (*1986) Forschungsgebiet ist das Erklärbare Maschinelle Lernen. Ihr Ziel ist es, transparente Computeralgorithmen zu bauen, die nachvollziehbare Entscheidungen treffen können. Ihr Ansatz kombiniert dabei verschiedene Methoden des maschinellen Sehens und Lernens, und der Verarbeitung natürlicher Sprache. Ihre wissenschaftliche Vision ist es, eine sich selbst-erklärende Künstliche Intelligenz (KI) zu kreieren, die durch minimales Feedback lernen und verlässlich mit Menschen interagieren kann.
Prof. Akata ist Liesel Beckmann Distinguished Professor für Informatik an der Technischen Universität München und Direktorin des Instituts für Erklärbares Maschinelles Lernen am Helmholtz München. Nach ihrer Promotion am INRIA Rhone Alpes (2014) arbeitete sie als Postdoc am Max-Planck-Institut für Informatik (2014-17) und an der University of California Berkeley (2016-17) sowie als Assistenzprofessorin an der Universität Amsterdam (2017-19). Bevor sie 2024 nach München kam, war sie Professorin für Informatik (W3) an der Universität Tübingen.
Wichtigste Auszeichnungen
- Alfried Krupp Förderpreis (2023)
- European Computer Vision Association Young Researcher Award (2022)
- German Pattern Recognition Award (2021)
- Werner-von-Siemens-Ring Young Researcher Award (2019)
- ERC Starting Grant (2019)
Schlüsselpublikationen (alle Publikationen)
Generative Adversarial Text to Image Synthesis International Conference on Machine Learning (ICML), 2016 Scott Reed, Zeynep Akata, Xinchen Yan, Lajanugen Logeswaran, Bernt Schiele, Honglak Lee.
AbstractZero-Shot Learning: A Comprehensive Evaluation of the Good, the Bad and the Ugly IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) 2019 Yongqin Xian, Christoph Lampert, Bernt Schiele, Zeynep Akata.
AbstractFeature Generating Networks for Zero-Shot Learning IEEE Computer Vision and Pattern Recognition (CVPR) 2018 Yongqin Xian, Tobias Lorenz, Bernt Schiele, Zeynep Akata.
AbstractIn-Context Impersonation Reveals Large Language Models' Strengths and Biases Neural Information Processing Systems (NeurIPS), 2023 Leonard Salewski, Stephan Alaniz, Isabel Rio-Torto, Eric Schulz, Zeynep Akata.
AbstractFantastic Gains and Where to Find Them: On the Existence and Prospect of General Knowledge Transfer between Any Pretrained Model International Conference on Learning Representations (ICLR), 2024 Karsten Roth, Lukas Thede, A. Sopthia Koepke, Oriol Vinyals, Olivier Hénaff, Zeynep Akata.
AbstractBei Änderungs- oder Aktualisierungswünschen wenden Sie sich bitte an Franz Langer.