
DPT-Schwerpunktthema: "KI in der Prävention" (14)
Weitere News
zu dem Thema
Das Schwerpunktthema des 31. Deutschen Präventionstages am 13. und 14. April 2026 in Hannover lautet „KI in der Prävention“. Die Täglichen Präventions-News veröffentlichen seit Juli 2025 ergänzende Hintergrundinformationen zu diesem Themenkomplex.
- Künstliche Intelligenz in der Suchthilfe und Suchtprävention
Künstliche Intelligenz (KI) hat das Potenzial, die Arbeitswelt im Sozial- und Gesundheitswesen grundlegend zu verändern. KI-gestützte Programme sollen dabei unterstützen, Behandlungsverläufe zu optimieren und passende Interventionen für Betroffene abzuleiten. Somit können digitale Angebote sowohl für Einrichtungsorganisationen als auch für die Unterstützung von Menschen mit Suchterkrankungen genutzt werden.
Die 35. Niedersächsische Suchtkonferenz am 17.11.2025 in Hannover steht unter dem Thema „Künstliche Intelligenz in der Suchthilfe“. - Wenn Menschen Aufgaben an KI delegieren, verhalten sie sich häufig unmoralischer – Künstliche Intelligenz fördert Unehrlichkeit
Verhaltenswissenschaftliche Untersuchungen haben gezeigt, dass Menschen eher unehrlich handeln, wenn sie sich von den Konsequenzen distanzieren können. Es ist einfacher, Regeln zu beugen oder zu brechen, wenn niemand zusieht – oder wenn jemand anderes die Handlung ausführt. Eine neue Studie eines internationalen Forschungsteams des Max-Planck-Instituts für Bildungsforschung der Universität Duisburg-Essen und der Toulouse School of Economics zeigt, dass diese moralischen Hemmschwellen noch weiter schwinden, wenn Menschen Aufgaben an KI delegieren. In 13 Studien mit mehr als 8.000 Teilnehmenden untersuchten die Forschenden die ethischen Risiken der Delegation an Maschinen – sowohl aus der Perspektive derjenigen, die Anweisungen geben, als auch aus der Perspektive derjenigen, die sie ausführen. In Studien, die sich darauf konzentrierten, wie Menschen Anweisungen gaben, stellten sie fest, dass Menschen deutlich häufiger betrogen, wenn sie das Verhalten an KI-Agenten auslagern konnten, anstatt selbst zu handeln. mehr -
Vertrauen in generative KI – Wissenschaft und Politik im Dialog
Die Entwicklung generativer KI-Technologien wirft grundlegende Fragen zur gesellschaftlichen Kontrolle, ethischen Einbettung und politischen Regulierung auf. Vertrauen in solche Systeme ist weder selbstverständlich noch rein technisch herstellbar. Es erfordert institutionelle Verlässlichkeit, nachvollziehbare Verantwortlichkeiten und gesellschaftliche Teilhabe. Das Leopoldina-Diskussionspapier „Generative KI - jenseits von Euphorie und einfachen Lösungen“ (2024) formuliert hierzu Leitlinien: Es betont, dass Vertrauen in generative KI durch verantwortungsvolle Technikgestaltung, politische Regulierung und öffentliche Aushandlung entstehen muss. Gleichzeitig hat die neue Bundesregierung in ihrem Koalitionsvertrag (2025) eigene Prioritäten gesetzt – etwa eine innovationsfreundliche Umsetzung des EU AI Acts, die Förderung digitaler Infrastrukturen und die Stärkung der Wettbewerbsfähigkeit. Das Webinar bringt beide Perspektiven zusammen: Diskutiert werden soll, inwieweit wissenschaftliche Empfehlungen und politische Setzungen übereinstimmen – und wo es Spannungen, Lücken oder Missverständnisse gibt. Ziel ist ein offener Austausch darüber, wie Vertrauen in KI verantwortungsvoll gefördert werden kann. -
Eine Landkarte für die KI-Sicherheit
Chatbots, medizinische Diagnosen, intelligente Stromnetze: Algorithmen aus dem Werkzeugkasten Künstlicher Intelligenz werden in immer mehr Bereichen eingesetzt. Klar ist, dass die Systeme zuverlässig und sicher funktionieren müssen. Unklar bleibt jedoch, was „Sicherheit“ bei KI genau bedeutet und welche Risiken entstehen: „Unser Ziel ist, eine verständliche Karte der Risikolandschaft der Künstlichen Intelligenz, auf der alle wichtigen Gefahren und mögliche Gegenmaßnahmen verzeichnet sind und die es Individuen und Institutionen ermöglicht, diese abzuwägen und begründete Entscheidungen zur KI-Sicherheit zu treffen“, fasst Elizabeth Herbert zusammen. mehr
www.praeventionstag.de
