Der CTS//circle.responsibleComputing veranstaltet den letzten Brown-Bag-Vortrag des Semesters zum Thema Digital Laziness: Why the Real AI Risk Is Human Surrender mit Forscherin, Autorin und Gründerin der AI Literacy Alliance Dr. Patrizia Ecker.

Sie sind herzlich dazu eingeladen, online teilzunehmen.

Die Sprecherin

Dr. Patrizia Ecker ist Researcher, Autorin und Gründerin der AI Literacy Alliance. Mit einem PhD in Psychology und Computer Science spezialisiert sie sich auf die Schnittstelle von Cognitive Bias, Digital Media und Human-Centered Technology. Über ihre akademische Arbeit hinaus berät sie Unternehmen und führende Beratungsfirmen in den Bereichen Digital Transformation und Responsible AI Adoption. Ihr aktuelles Buch, The Digital Reinforcement of Bias and Belief, untersucht, wie Online-Umgebungen unser Denken und unsere Entscheidungsfindung beeinflussen. Durch die AI Literacy Alliance befähigt sie außerdem junge Menschen, kritisch zu denken und in einer KI-geprägten Welt erfolgreich zu sein.


Patrizia Ecker

Seminar Details

  • Digital Laziness: Why the Real AI Risk Is Human Surrender
  • Dr. Patrizia Ecker
  • 26 Juni 2025 12:00 - 13:00
  • Ort: Zoom


Abstrakt:
We talk about responsible technology. But what if the real problem isn’t the technology itself — but how comfortably we let it think for us?

In this talk, Dr. Patrizia Ecker explores the subtle but growing threat of digital laziness: a condition in which we outsource not just tasks but thinking, judgment, and even curiosity to algorithms. Drawing from her book The Digital Reinforcement of Bias and Belief, she shows how AI systems silently shape our convictions — and how this undermines not just individual autonomy, but democratic resilience.

Combining academic frameworks from her research with practical lessons from the AI Literacy Alliance, Dr. Ecker outlines how young people (and adults) are losing the ability to think critically, formulate complex opinions, and engage with doubt — skills essential for any responsible society.

This session asks five uncomfortable questions about our cognitive habits and explores how we can design educational and technological systems that protect what makes us human. Because the real danger isn’t machine intelligence. It’s human surrender.

Key questions:
  • - When does AI help us think — and when does it stop us from thinking?
  • - What do we risk losing when we prioritize convenience over cognition?


Veranstalter

CTS//circle.responsibleComputing