Deutscher Präventionspreis - Publikumspreis

Der Deutsche Präventionspreis wird 2026 zum ersten Mal vergeben. Der Preis besteht aus zwei Teilen: den Preisen der Jury und dem Publikumspreis. Alle Teilnehmenden des 31. Deutschen Präventionstages haben die Möglichkeit, ihr Votum für den Publikumspreis abzugeben. Dazu wird ein besonderer Link versendet, der für die einmalige Abstimmung aktiv ist. Dieser Link wird allen bis dato angemeldeten Kongressteilnehmenden mit der Eintrittskarte (Voucher) Ende März per E-Mail zugesendet.

In der präsentierten Liste finden sich zwölf durch die Jury vorausgewählte Bewerbungen, die sog. Shortlist. Sie wurde aus den insgesamt zwanzig eingesandten Bewerbungen erstellt. Damit durch die Reihenfolge keine ungewollte Vorgabe entsteht, wechselt diese automatisch mit jedem neuen Seitenaufruf. Mit Aufruf des Abstimmungslinks können Sie unter der Liste das von Ihnen favorisierte Projekt ankreuzen. Die Stimmabgabe ist bis zum 9. April, 12 Uhr, möglich.

Das Ergebnis wird im Rahmen der Preisverleihung während der Eröffnung des 31. DPT bekanntgegeben. Das Eröffnungsplenum findet statt am 13. April 2026, von 10:30 bis 11:30 Uhr, in der Eilenriedehalle B. Alle ausgezeichneten Projekte werden außerdem nach der Eröffnung um 12 Uhr im Rahmen eines Vortrags im Blauen Saal vorgestellt.

Regelbasierte Ansätze zur Suchtprävention im virtuellen Automatenspiel
Dr. Steffen Otterbach
› Forschungsstelle Glücksspiel, Universität Hohenheim
Regelbasierte Ansätze zur Suchtprävention im virtuellen Automatenspiel

Mit diesem Schreiben möchte ich Marvin Raab (Doktorand an der Forschungsstelle Glücksspiel der Universität Hohenheim) für den Deutschen Präventionspreis vorschlagen, der die nachfolgend beschriebene Studie maßgeblich zu verantworten hat. Die eingereichte Studie entwickelt und evaluiert ein datenbasiertes KI-Frühwarnsystem zur Prävention von Glücksspielsucht im Online-Glücksspiel. Ziel ist es, riskantes Spielverhalten frühzeitig zu erkennen und gleichzeitig transparente, nachvollziehbare Entscheidungsgrundlagen für Präventionsmaßnahmen bereitzustellen.

Grundlage ist eine Längsschnittanalyse anonymisierter Verhaltensdaten von 7.648 spielenden, die vom Innenministerium Schleswig-Holstein bereitgestellt wurden. Die Daten stammen von vier lizenzierten Online-Glücksspielanbietern aus Schleswig-Holstein, die zusammen rund 400 verschiedene Automatenspiele bereitstellen, und beziehen sich auf den Zeitraum von Januar 2020 bis Juli 2022. Erfasst wurden unter anderem Ein- und Auszahlungen, Einsätze und Gewinne/Verluste, Spieldauer und Spielhäufigkeit, Spielpausen und die Nutzung von Einzahlungslimits. Als zentrales Risikosignal wird die freiwillige Selbstsperre genutzt, die in der Forschung als valider Indikator für problematisches Spielverhalten gilt. Aus kurzen Beobachtungszeiträumen (14 Tage) werden zahlreiche potentielle Warnindikatoren abgeleitet, darunter Ein- und Auszahlungsfrequenz, durchschnittliche Verluste, Spielintensität sowie der Anteil an Spielen in der Nacht oder am Wochenende.

Methodisch kombiniert die Studie moderne maschinelle Lernverfahren (e.g. eXtreme Gradient Boosting) mit gezielten Balancierungsstrategien zur Bewältigung seltener Ereignisse (Selbstsperren) und optimiert die Hyperparameter bzw. Modelle gezielt auf eine hohe Erkennungsrate gefährdeter Personen. Besonderer Fokus liegt dabei auf der Minimierung nicht erkannter Risikospieler (Falsch-Negativen), da diese aus präventiver Sicht besonders kritisch sind.

Mit diesem Ansatz wird zudem direkt der Anforderung des Glücksspielstaatsvertrags Rechnung getragen, der besagt, dass Online-Glücksspiel-Anbieter ein auf „wissenschaftlichen Erkenntnissen beruhendes, auf Algorithmen basierendes automatisiertes System zur Früherkennung von glücksspielsuchtgefährdeten Spielern und von Glücksspielsucht“ einsetzen müssen.

Der entscheidende Innovationsteil liegt im konsequenten Einsatz erklärbarer KI (Explainable AI): Die leistungsstarken, aber komplexen Modelle werden durch kompakte, regelbasierte Entscheidungsbäume zusammengefasst, die das Risiko nachvollziehbar anhand weniger, gut verständlicher Kriterien abbilden. Die daraus gewonnenen Regeln sind leicht verständlich und menschenlesbar, sodass die KI-Entscheidungen sowohl für Präventionsfachkräfte und Aufsichtsbehörden als auch für die Betroffenen selbst nachvollziehbar werden.

Die Studie leistet damit einen Beitrag zur evidenzbasierten Suchtprävention, indem sie Frühintervention, Transparenz und regulatorische Anforderungen miteinander verbindet.


https://dx.doi.org/10.2139/ssrn.5911085
„Zukunftssichere Extremismusprävention durch Bildung in Hessen“ Projektbaustein: „Jugendliche stärken gegen digitale Radikalisierung“
Hanifa Haqani
› Rumi im Puls e.V.
„Zukunftssichere Extremismusprävention durch Bildung in Hessen“ Projektbaustein: „Jugendliche stärken gegen digitale Radikalisierung“

Rumi imPuls e.V. arbeitet seit neun Jahren mit jungen Menschen, die in ihren Herkunftsländern religiös motiviert radikalisiert wurden oder sich auf diesem Weg befanden. Der Verein wurde 2017 in Frankfurt am Main überwiegend von Menschen mit eigener Migrationserfahrung gegründet. Ausgangspunkt unserer Arbeit ist das Phänomen der Flucht und die Frage, wie ein selbstbestimmtes Leben in einer zunächst fremden demokratischen Vielfaltsgesellschaft gelingen kann.

Viele der Jugendlichen sind in religiösen und gesellschaftlichen Kontexten sozialisiert worden, die von Angst, Kontrolle und autoritären Deutungen geprägt sind. In islamistischen Koranschulen wurden ihnen Höllenstrafen, Gewalt und Verdammnis bildhaft vermittelt, um Gehorsam zu erzwingen. Nicht selten schicken Eltern ihre Kinder auf die Flucht, wenn sie bemerken, wie sehr diese Bilder Denken und Handeln bestimmen. In Deutschland angekommen, sehnen sich die Jugendlichen nach Sicherheit, Freiheit und Teilhabe, erleben jedoch Ungewissheit, Druck und Orientierungslosigkeit. Demokratie, Rechte und Freiheiten sind für viele neu. In dieser Phase sind sie besonders anfällig für extremistische Deutungsangebote, die einfache Antworten versprechen und Angst verstärken.

Mit der Corona-Zeit verlagerte sich diese Dynamik zunehmend in digitale Räume. Die Jugendlichen zogen sich stark in soziale Medien zurück, und islamistische Prediger folgten ihnen dorthin. Durch Plattformen wie TikTok und Instagram und den Einsatz von Künstlicher Intelligenz erreichte diese Entwicklung eine neue Dimension. Wir begegnen extrem realistischen Höllen-, Straf- und Gewaltdarstellungen, apokalyptischen Szenarien, Dämonen, Feuer und Folterszenen, die als „Visionen“, „Offenbarungen“ oder „Zeichen Gottes“ präsentiert werden. KI-generierte, predigende oder drohende Stimmen verleihen diesen Inhalten eine scheinbare Autorität.

Besonders belastend sind KI-gestützte Darstellungen, in denen antisemitische und frauenfeindliche Feindbilder verbreitet werden. Juden erscheinen als dämonische Figuren, Frauen als Hexen oder „Unreine“, der Westen als moralisch verkommen. Die hohe technische Qualität erzeugt reale Angst, die durch algorithmische Empfehlungssysteme weiter verstärkt wird. Hier setzt das Projekt „Zukunftssichere Extremismusprävention durch Bildung in Hessen“ an, gefördert durch das Landesprogramm „Hessen – aktiv für Demokratie und gegen Extremismus“. In Workshops und Bildungsformaten werden diese Bilder offen thematisiert, eingeordnet und von religiösem Glauben, persönlicher Spiritualität und Wirklichkeit getrennt. Dabei verbinden wir Extremismusprävention mit politischer und sozialer Bildung und machen demokratische Grundwerte erfahrbar.


https://www.rumi-impuls.de/
IndiSuKI – Erprobung einer KI-gestützten Anwendung zur Cannabisprävention
Anne Brüning
› nuvio Institut für Gesundheitsgestaltung
IndiSuKI – Erprobung einer KI-gestützten Anwendung zur Cannabisprävention

Künstliche Intelligenz (KI) verändert gewohnte Prozesse in beruflichen sowie in privaten Bereichen grundlegend. Das Gesundheitswesen bildet hier keine Ausnahme. Es erscheinen immer wieder neue Angebote und Anwendungen, die zeigen, welche Chancen und Möglichkeiten Instrumente der KI heute bereits für den Gesundheitsbereich bieten. Auch im Bereich der Suchtprävention verändert Digitalisierung vieles, doch sind Chancen, möglicher Nutzen, aber auch Risiken des Einsatzes von KI im Bereich Suchtprävention noch weitestgehend unerforscht. Das Forschungsvorhaben IndiSuKI („Hyperindividualisierte Gesundheitskommunikation und Verhaltensmotivation in der Suchtprävention durch generative Künstliche Intelligenz“) zielt darauf ab, innovative digitale Lösungen für die Cannabisprävention bei jungen Erwachsenen zu entwickeln und zu erproben. Im Mittelpunkt steht eine KI-gestützte Anwendung, die Präventionsinhalte individuell an das Konsumverhalten, die Bedürfnisse und die Lebensrealität von Nutzerinnen und Nutzern im Alter von 18 bis 25 Jahren anpasst. Die generative KI lernt aus Nutzereingaben und ermöglicht dadurch personalisierte Präventionsbotschaften, die Verhaltensänderungen wirksam unterstützen und motivieren. Das Projekt kombiniert technologische Innovation mit partizipativer Forschung: Angehörige der Zielgruppe werden als Co-Forschende aktiv in die Entwicklung einbezogen, um Akzeptanz, Relevanz und Wirksamkeit zu erhöhen. IndiSuKI wird von der nuvio gGmbH geleitet und in Kooperation mit der Universität Siegen und Railslove GmbH umgesetzt. Neben der Entwicklung umfasst das Vorhaben die wissenschaftliche Erprobung und Evaluation der Anwendung um Chancen, Nutzen und ethische Aspekte des KI-Einsatzes in der Suchtprävention fundiert zu untersuchen. Ziel ist es, langfristig skalierbare, frei zugängliche Lösungen für eine moderne, datenbasierte Präventionsarbeit bereitzustellen.
Foto Credits: Canva Stock
https://nuvio.health/indisuki/

demoKI - Ein KI Projekt, entwickelt in der Friedensschule Osnabrück, gemacht für alle!
Max Knolle für das demoKI Projekt
› Friedensschule Osnabrück
demoKI - Ein KI Projekt, entwickelt in der Friedensschule Osnabrück, gemacht für alle!

demoKI ist ein KI-Projekt, entwickelt in der Friedensschule Osnabrück, gemacht für alle. Es vereint Demokratie- und KI-Bildung miteinander. Die Lernpartner:innen (so heißen bei uns Schüler:innen) erlernen in der Werkstatt (Arbeitsgemeinschaft) KI-Kompetenzen auf den drei Ebenen: 1. Was kann KI? 2. Wie funktioniert KI? und 3. Was macht KI mit der Gesellschaft? Besonders ist, dass die Lernpartner:innen zu diesen drei Ebenen Lernprodukte selbst entwickeln. Diese Lernprodukte bilden die Grundlage für Workshops, die von den Lernpartner:innen selbst durchgeführt werden und so ihre Erkenntnisse auch an andere weitergegeben werden können. So haben wir z.B. schon einen Workshop für Senior:innen und Grundschüler:innen durchgeführt, haben einen Infostand auf dem Tag der Niedersachsen gehabt, planen die Zusammenarbeit mit studierenden der Universität Osnabrück und stellen unsere Materialien als OER-Material auf unserer Homepage demoKI.info allen zur Verfügung. Auf Instagram erreichen wir unsere Schulgemeinschaft und die Welt.


https://www.demoki.info/
Cybergrooming – Phänomenologie und die Präventionspotenziale Künstlicher Intelligenz
Raban Fitzka
Cybergrooming – Phänomenologie und die Präventionspotenziale Künstlicher Intelligenz

Kurzzusammenfassung Masterarbeit: Jedes sechste in Deutschland lebende Kind ist von Cybergrooming betroffen. Cybergrooming beschreibt das digitale Einwirken von Täter:innen auf Kinder, um diese sexuell zu missbrauchen. Da Kinder oft bereits ab der ersten Klasse Zugang zum Internet haben, der digitale Raum weder ausreichend Schutzmechanismen bietet, noch eine manuelle Überwachung möglich ist und die Viktimisierungsfolgen in Form von posttraumatischen Belastungsstörungen, Depressionen, Einsamkeit u. v. m. schwerwiegend sind, ergibt sich eine hohe Relevanz des Untersuchungsgegenstands. Die Masterarbeit hat sich in zwei Hauptkomplexen mit einer kriminalphänomenologischen Analyse von Cybergrooming und den Präventionspotenzialen Künstlicher Intelligenz (KI) befasst. Sie leistet einen wichtigen Beitrag, indem sie das Phänomen, relevante Akteure sowie Maßnahmen ansatzweise holistisch darstellt und somit sensibilisiert sowie Defizite und Erforderlichkeiten für Theorie und Praxis identifiziert. Die Analyse zeigt, dass der digitale Raum als rechtsdurchsetzungsfrei empfunden wird: Täter:innen agieren teilweise sogar öffentlich und schützen hierbei nicht einmal ihre Identität (z. B. durch Unkenntlichmachen des eigenen Gesichts). Deutsche Strafverfolgungsbehörden gestehen sich in einem nicht für die Öffentlichkeit bestimmten Dokument ein, keine Ressourcen für proaktive Ermittlungen zu haben. Bei dieser gesamtgesellschaftlichen Aufgabe der Prävention sticht vor allem die Schule als Akteur heraus. Hier bedarf es im Bereich der Medienbildung eines eigenständigen Curriculums, welches bundesweit einheitlichen Qualitätsstandards unterliegt. Darüber hinaus musste ein deutlicher Mangel an evidenzbasierten Präventionsprogrammen festgestellt werden (lediglich eins in der „Grünen Liste Prävention“). Die Arbeit attestiert der KI eine hohe Signifikanz bei der Bekämpfung von Cybergrooming. In der Prävention weisen Texterkennungs-Modelle bereits Genauigkeitswerte von über 90% auf. Wissenschaftler:innen verfolgen außerdem einen originär präventiven Ansatz, indem sie KI-basierte Simulationstrainings für Kinder und Jugendliche entwickeln, welche sich entsprechend der individuellen Resilienz adaptieren. Darüber hinaus birgt KI das Potenzial, eine effiziente Strafverfolgung zu gewährleisten, wodurch eine abschreckende Wirkung erzielt und Taten vorgebeugt wird. Mittels hashes können bekannte Missbrauchsdarstellungen zuverlässig und automatisiert ermittelt werden, während die neue classifier-Methode ermöglicht, auch unbekanntes Material zu identifizieren. In der Strafverfolgung ist die KI unerlässlich, um die schieren Datenmengen zu bewältigen und Täter:innen zu identifizieren, welche ihrerseits KI für kriminelle Handlungen nutzen. Eine Limitation der Arbeit stellt die fehlende, aber notwendige datenschutzrechtliche Würdigung dar. Gleichwohl kann festgehalten werden, dass eine anlassunabhängige, dauerhafte Kontrolle eines jeden Individuums nicht mit rechtsstaatlichen Werten vereinbar ist.

Die vollständige Arbeit übermittele ich gerne auf Anfrage: raban.fitzka@outlook.de.
AinoAid™ hilft bei häuslicher Gewalt
Dr. Catharina Vogt
› Deutsche Hochschule der Polizei
AinoAid™ hilft bei häuslicher Gewalt

Menschen, die von häuslicher Gewalt (hG) betroffen sind, wissen oft nicht, wohin sie sich wenden können um Hilfe zu finden. Hier setzt der KI-basierte Chatbot AinoAid™ (www.ainoaid.fi) an, den das Start-Up WeEncourage im EU-geförderten Projekt IMPROVE (www.improve-horizon.eu/) unter Leitung der Deutschen Hochschule der Polizei entwickelte. Um die Hürden bei der Hilfesuche und die Bedürfnisse Betroffener in Bezug auf den Chatbot besser zu verstehen, wurden zunächst ein Literaturreview und eine Bedarfsanalyse durchgeführt. Darauf aufbauend wurde AinoAid™ als Website aufgesetzt, welche spezifische Inhalte für Deutschland, Österreich und drei weitere Länder bereitstellt. Der eingebettete GPT-basierte Chatbot greift ausschließlich auf die Inhalte dieser Website/Wissensbank zu.

Diese enthält u. a. Sicherheitstipps, Informationen über Gewaltformen, Anleitungen zur Hilfesuche, Erläuterungen zu rechtlichen Verfahren und dem Zugang zu Schutz- und Unterstützungsdiensten. Weiterhin bietet sie Unterstützung bei psychischen Problemen sowie Kontaktdaten für Notdienste und relevante Organisationen. Die Inhalte wurden ausschließlich von IMPROVE hG-Expert*innen erstellt.

Mit dem integrierten Chatbot kann in der jeweiligen Landessprache und auf Englisch kommuniziert werden; zusätzlich stellt die dahinterliegende Plattform „Microsoft Azure“ Übersetzungen bereit, die ermöglichen, mit AinoAid™ in mehr als 100 Sprachen zu chatten.

AinoAid™ berücksichtigt unterschiedliche Suchstrategien der Nutzer*innen, indem verschiedene Einstiegspunkte für die Informationssuche angeboten werden. AinoAid™ ist auf Smartphones, Tablets und Computern nutzbar und erfordert keine Downloads oder Abfrage personenbezogener Daten. Sicherheitshinweise für die AinoAid™-Nutzung sowie ein „Notausgang“ sind prominent angelegt.

Mit AinoAid™ können sich Betroffene ebenso wie deren Unterstützer*innen und auch hG-Fachkräfte anonym 24/7 ihren Bedürfnissen gemäß über häusliche Gewalt und Hilfsangebote informieren. Da auch potentielle Täter*innen die Inhalte aufrufen können, kommuniziert AinoAid™ sehr deutlich, dass Gewalt inakzeptabel ist und hält Kontaktdaten von Beratungsstellen für gewaltausübende Personen bereit.

Im Chat können Nutzer*innen ihre Anliegen schildern und erhalten informative, empathische Antworten. Neben der reinen Informationsvermittlung war es ein zentrales Anliegen, den Chatbot so zu gestalten, dass er psychologische Sicherheit vermittelt. Er wurde in Zusammenarbeit mit Betroffenen und Psycholog*innen entwickelt und trainiert, damit er typische therapeutische Interaktionen widerspiegelt und durch die Imitation menschlicher Gespräche psychosoziale Unterstützung bietet. Je früher Betroffene Gewalt als solche erkennen, desto geringer ist der zu erwartende individuelle und gesellschaftliche Schaden.


https://www.ainoaid.fi/de-de
Die Zukunft der Gewaltprävention: Evidenzbasierte Risikoanalysen mit KI
Ba Linh Le
› Frontline GmbH
Die Zukunft der Gewaltprävention: Evidenzbasierte Risikoanalysen mit KI

Mit Lizzy hat das soziale Berliner Startup Frontline ein KI-gestütztes Gefährdungsanalyse-System entwickelt, das Fachkräfte im Bereich häusliche Gewalt (Partnerschaftsgewalt) dabei unterstützt, Risiken frühzeitig, präzise und evidenzbasiert einzuschätzen.

Lizzy ordnet Risiken von körperlicher, sexueller, emotionaler, digitaler und finanzieller Gewalt ein und bewertet darüber hinaus systematisch Risiken der Kindeswohlgefährdung. Das Tool wird als benutzerfreundliche Web-App bereitgestellt und ist niedrigschwellig über jeden Browser nutzbar.

Lizzy leistet einen zentralen Beitrag zur Sekundärprävention im Sinne von Art. 51 der Istanbul-Konvention sowie Art. 16 und 17 der EU-Gewaltschutzrichtlinie (EU-Richtlinie 2024/1385 ), indem es dazu beiträgt, wiederholte und schwere Gewalt frühzeitig zu erkennen und zu verhindern.


https://www.frontline100.com/
JUUU-KI!
Anna Allershausen, Luisa Kunze und Pieter Harten
› JUUUPORT e.V.
JUUU-KI!

Mit dem Projekt JUUU-KI! setzt sich die Beratungs- und Aufklärungsplattform JUUUPORT gezielt für mehr Medienkompetenz im Umgang mit Künstlicher Intelligenz (KI) ein. Gefördert vom Bundesfamilienministerium im Rahmen des Bundesprogramms „Demokratie leben!“, beschäftigt sich das Projekt mit aktuellen Herausforderungen wie Desinformation, Hassrede und digitaler Manipulation.

KI-Scouts für Aufklärung im digitalen Raum

Ein zentrales Element von JUUU-KI! sind die KI-Scouts – junge, ehrenamtliche Engagierte, die speziell für das Thema ausgebildet werden. Sie informieren Gleichaltrige über die Chancen und Risiken von KI und entwickeln interaktive Formate zur digitalen Aufklärung.

Das KI-Labor: Kreative Inhalte zur Aufklärung

In sogenannten KI-Laboren produzieren die Scouts unter medienpädagogischer Anleitung verschiedene Inhalte, darunter Videos, Podcasts, Infografiken und Social-Media-Kampagnen. Dabei setzen sie selbst KI-gestützte Tools ein und reflektieren kritisch deren Möglichkeiten und Gefahren.

Ziele des Projekts

JUUU-KI! verfolgt das Ziel, junge Menschen für die Auswirkungen von KI in der digitalen Welt zu sensibilisieren und ihnen Werkzeuge an die Hand zu geben, um Fake News, Hass und Manipulation zu erkennen und zu entlarven. Damit leistet das Projekt einen wichtigen Beitrag zur Stärkung der Demokratie. Die erstellten Inhalte werden über die Website und Social-Media-Kanäle von JUUUPORT verbreitet und bieten praxisnahe Hilfestellungen für einen bewussten Umgang mit KI.


https://www.juuuport.de/juuu-ki#c3393
Fakeshop-Finder
Oliver Havlat
› Verbraucherzentrale NRW e.V.
Fakeshop-Finder

Der Fakeshop-Finder ist ein KI-gestütztes Online-Präventionstool, das Verbraucherinnen und Verbrauchern ermöglicht, die Seriosität von Online-Shops innerhalb weniger Sekunden zu überprüfen. Durch die Eingabe einer Shop-URL erhalten Nutzerinnen und Nutzer eine sofortige Einschätzung, ob es sich mit hoher Wahrscheinlichkeit um einen betrügerischen sogenannten Fakeshop handelt. Ziel ist es, Konsumentinnen und Konsumenten wirksam vor Warenbetrug, Kreditkartenmissbrauch und Identitätsdiebstahl zu schützen.

Das Projekt wurde 2022 gestartet und hat sich seitdem zu einem der erfolgreichsten digitalen Angebote der Verbraucherzentralen entwickelt. Aktuell werden rund 450.000 Shop-Überprüfungen pro Monat durchgeführt. Die zugrunde liegende Datenbank umfasst inzwischen über 100.000 bestätigte Fakeshop-Domains sowie mehr als 60.000 sogenannte Feeder-Seiten, die zur Verbreitung betrügerischer Angebote genutzt werden.

Technisch basiert der Fakeshop-Finder auf einem Netzwerk automatisierter Webcrawler, die kontinuierlich – mit Fokus auf deutschsprachige Inhalte – das Internet nach verdächtigen Online-Shops durchsuchen. Diese werden mithilfe von Machine-Learning-Verfahren anhand technischer und inhaltlicher Merkmale analysiert. Dazu gehören neben vielen weiteren Faktoren das Vorhandensein eines Impressums, das Auslesen der Impressumsdaten und ein Abgleich mit dem Handelsregister, die Analyse des Serverstandortes und die Zeitspanne, in der die Shop-Domain bisher unverändert existierte sowie die Analyse von etwaiger Anomalien im Quellcode der Website. Aus diesen Faktoren wird die Wahrscheinlichkeit berechnet, mit der es sich um einen betrügerischen Onlineshop handelt oder nicht. Eine KI-gestützte Cluster-Erkennung verknüpft zusammengehörige Betrugsstrukturen und sorgt dafür, dass das System fortlaufend dazulernt und präziser wird. Insgesamt wurden auf diese Weise bislang über 2,80 Millionen Websites analysiert.

Da Fakeshops überwiegend von außerhalb der EU betrieben werden und strafrechtliche Verfolgung sowie Verbraucherrechtsdurchsetzung häufig an rechtlichen Grenzen scheitern, kommt der präventiven Schadensvermeidung eine zentrale Bedeutung zu. Genau hier setzt der Fakeshop-Finder an.

Das Projekt wird von mehreren deutschen Bundesländern gemeinsam finanziert – eine bundesweit bislang einzigartige Kooperation im Verbraucherschutz. Federführend ist die Verbraucherzentrale Nordrhein-Westfalen, die technische Umsetzung erfolgt durch die mindUp Web+Intelligence GmbH aus Konstanz. Der Fakeshop-Finder ist modular aufgebaut und grundsätzlich auch auf beispielsweise andere EU-Mitgliedstaaten übertragbar.


https://www.fakeshop-finder.de
PENEMUE Wir schützen Menschen vor Online Hass und digitaler Gewalt
Sara Egetemeyr
› PENEMUE Technologies GmbH
PENEMUE Wir schützen Menschen vor Online Hass und digitaler Gewalt

Wir sind PENEMUE, der digitale Schutzengel und KI gestützte TrustTech Lösung, die Hass im Netz, digitale Gewalt, strafbare digitale Angriffe erkennt und Personen der Öffentlichkeit, Unternehmen, staatliche Institutionen und nicht-staatliche Organisationen 24/7, weltweit auf allen Plattformen schützt. Mit unserer Technologie erschließen wir ein bislang weitgehend ungenutztes Feld der Gewalt- und Extremismus Prävention: den Schutz digitaler Räume als zentrale Voraussetzung für gesellschaftliche Sicherheit und demokratischen Diskurs in der digitalen Öffentlichkeit, dabei bieten wir als einziger Anbieter auch exponierten Einzelpersonen digitalen Schutz, vor allem also Menschen aus den Bereichen Journalismus, Profisport, Politik, Wissenschaft sowie der Creator Economy, aber auch Vorständen und Amts- und Mandatsträger*innen.

Wir erkennen dabei Text, Bilder, Audio, Video, Emojis sowie GIFs in über 50 Sprachen; und nicht nur offensichtliche Hasskommentare, sondern auch subtile, implizite, kontextabhängige oder codierte Formen digitaler Gewalt. Durch Einbezug von Echtzeitdaten wird die Einordnung außerdem noch genauer.

Ein weiteres Alleinstellungsmerkmal ist die direkte Verbindung zur Justiz: strafbare Inhalte können mithilfe unserer API automatisiert an zuständige Stellen (Staatsanwaltschaft, BKA oder Meldestellen) übermittelt werden, wodurch Prävention nicht bei der Erkennung stehen bleibt, sondern in rechtliche Konsequenz überführt wird. Damit wird digitale Gewalt nicht nur sichtbar gemacht, sondern aktiv bekämpft – ein zentraler Beitrag zur Demokratieförderung und Gewaltprävention, zum Schutz vulnerabler Gruppen und zur Sicherung digitaler Teilhabe. PENEMUE ist DSGVO konform, made in Germany und wurde bereits in Zusammenarbeit mit öffentlichen Institutionen (Landespräventionsrat Niedersachsen, Bayrische Landesmedienanstalt, SWR) erprobt und die Wirksamkeit durch die Universität Mannheim wissenschaftlich evaluiert und bestätigt.

Foto Credits: Silvia Wolf
https://www.penemue.ai
Helmit - KI-gestützter Schutz vor digitaler Gewalt gegen Kinder
Alexander Wolters
› Helmit
Helmit - KI-gestützter Schutz vor digitaler Gewalt gegen Kinder

Kinder wachsen heute selbstverständlich mit digitalen Medien auf. Gleichzeitig sind sie online ernsthaften Gefahren ausgesetzt. Cybermobbing, Cybergrooming, die Verbreitung intimer Fotos und gefährliche Inhalte gehören längst zu den realen Risiken für Kinder im Netz. Laut Studien des Bündnisses gegen Cybermobbing waren 18,5 % der Schüler*innen bereits von Cybermobbing betroffen. Das sind über zwei Millionen Kinder und Jugendliche in Deutschland. Jede vierte betroffene Person entwickelte infolge der digitalen Angriffe Suizidgedanken. Zudem erlebt Schätzungen zufolge etwa jedes zehnte Kind online sexualisierte Belästigung oder Übergriffe. Die Folgen sind gravierend. Kinder leiden unter Stress, Angst, Scham, Depressionen und sozialem Rückzug und nicht selten auch unter langfristigen psychischen Traumata. Diese Herausforderung ist nicht nur ein Sicherheits- und Gesundheitsproblem, sondern auch eine Bildungsfrage. Digitale Resilienz gehört zu den Schlüsselkompetenzen der Zukunft. Kinder müssen lernen, sicher und selbstbewusst mit digitalen Medien umzugehen. Sie müssen lernen, Risiken zu erkennen, Grenzen zu setzen und Hilfe einzufordern.

Mit Helmit setzen wir auf moderne KI-Technologie, um Kinder im digitalen Raum wirksam zu schützen, ohne ihre Privatsphäre aufzugeben. Helmit wird lokal auf dem Computer der Eltern installiert und mit den Social-Media-Accounts des Kindes verknüpft (z.B. WhatsApp, Instagram oder YouTube). Im Hintergrund analysiert Helmit die Chats auf diesen Plattformen mit Hilfe fortschrittlicher KI kontextsensitiv und multimodal (Text, Bild, Audio, Video) direkt auf dem Gerät. So kann Helmit unterscheiden, ob es sich um harmlose Witze oder ernsthafte Beleidigungen und gefährliche Situationen handelt. Wenn Helmit ein akutes Risiko erkennt (z.B. Hinweise auf Essstörungen, Selbstverletzung oder Mobbing), erhalten Eltern eine diskrete Warnmeldung mit einem kurzen Auszug des betroffenen Chats sowie pädagogisch erarbeitete Handlungsempfehlungen. Dabei bleiben alle sensiblen Daten vollständig auf dem Gerät der Eltern und es findet keine Übertragung an Cloud-Server oder Dritte statt.

Helmit schließt damit eine zentrale Lücke im digitalen Kinderschutz. Es verbindet frühzeitige Erkennung und schnelle Intervention mit konsequentem Datenschutz sowie einem respektvollen Umgang mit der Privatsphäre des Kindes.

Eltern erhalten mit Helmit ein Werkzeug, um ihre Kinder rechtzeitig zu schützen. Helmit trägt maßgeblich zur Reduktion digitaler Gewalt bei, indem Interventionszeiten verkürzt und Folgeschäden minimiert werden. Kinder wachsen in der digitalen Welt mit weniger Stress, Angst und psychischer Belastung auf, was Schulen, Hilfsorganisationen und Eltern entlastet. Gleichzeitig wirkt Helmit präventiv. Jede Warnung schafft einen konkreten Anlass, gemeinsam in der Familie über digitale Risiken zu sprechen und Grenzen zu setzen. So trägt Helmit nicht nur zur akuten Gefahrenabwehr bei, sondern fördert langfristig auch Medienkompetenz und Resilienz.


https://www.helmit.org
RocketMIND Ein präventiver Gesundheitsbegleiter für Kinder
Lena Hiltel
› RocketMIND
RocketMIND Ein präventiver Gesundheitsbegleiter für Kinder

Ein präventiver Gesundheitsbegleiter für Kinder (6–11 Jahre), der eine gamifizierte App mit dem physischen Gadget „Rocket“ verbindet. Nachhaltige Prävention beginnt früh. Wenn Kinder lernen, mit Emotionen, Herausforderungen und Konflikten umzugehen, entwickeln sie mentale Stärke und Resilienz. Genau hier setzt RocketMIND an.

Das sind wir: Wir sind Lena, Celina und Annalena. Unser Team vereint Kompetenzen aus Psychologie, Development/KI, Design und Betriebswirtschaft. Entstanden ist RocketMIND als Hochschulprojekt im Masterstudiengang „Digital Entrepreneurship“ an der OTH Regensburg. Für uns ist RocketMIND ein absolutes Herzensprojekt. Durch eigene Erfahrungen wissen wir, wie wichtig niedrigschwellige Unterstützung für Familien ist. Mehr Infos zu uns gibt’s im aktuellen Fernseh-Beitrag.

Das Problem: Jeder fünfte Jugendliche in Deutschland zeigt Anzeichen psychischer Probleme. Hinzu kommen politische Krisen und Nachwirkungen der Corona-Pandemie. Gleichzeitig besteht eine strukturelle Versorgungslücke: Wartezeiten auf einen Therapieplatz für Kinder überschreiten häufig mehr als sechs Monate. Viele bestehende Apps bieten zudem zu wenig Interaktivität und Personalisierung, was die langfristige Nutzung reduziert.

Das ist unsere Lösung: RocketMIND verbindet eine spielerische App mit einem physischen Spielzeug – die „Rocket“ und kann zuhause sowie in Schulen eingesetzt werden. In der App können Kinder interaktive Minispiele entdecken, die auf fundierten psychologischen Methoden basieren. Ganz nebenbei stärken sie Selbstwertgefühl, Resilienz und emotionale Kompetenz. Diese Kompetenzen sind zentrale Grundlagen psychischer Stabilität und tragen indirekt zur Gewaltprävention bei: Kinder, die Gefühle regulieren und Konflikte konstruktiv lösen, zeigen nachweislich seltener aggressives Verhalten.

Die “Rocket” begleitet die Kinder im Alltag und macht mentale Stärke erlebbar: Sie kann z. B. Atemübungen anleiten oder Mutmach-Geschichten vorlesen. Hier geht’s zum Produktvideo.

KI in der Prävention - wir integrieren eine bedarfsorientierte Themenpersonalisierung: RocketMIND nutzt einen Algorithmus, der Inhalte individuell an jedes Kind anpasst. Schwierigkeitsgrad und Themen orientieren sich automatisch am Entwicklungsstand und den Bedürfnissen des Kindes. So erhalten Kinder passende Übungen – etwa beruhigende Inhalte am Abend oder aktivierende Übungen am Tag. Perspektivisch wird die Personalisierung durch Machine Learning weiter verbessert. Da die Verarbeitung biometrischer Kinderdaten gemäß EU AI Act (Anhang III) als Hochrisiko gilt, wird frühzeitig eine Explainable-AI-Infrastruktur entwickelt. Die Datenverarbeitung und Entwicklung erfolgen DSGVO-konform.

Wo steht RocketMIND heute? Bereits durchgeführt wurde eine Nutzerakzeptanzstudie mit 50 Kindern sowie eine Befragung mit 60 Eltern. RocketMIND befindet sich aktuell in der Produktentwicklung. Eine wissenschaftliche Kurzzeitstudie ist für den Sommer geplant, der Markteintritt für 2027. Mir Ihrer Stimme können wir Großes erreichen. „Wir setzen den Startschuss für eine mental starke Generation!“ Vielen Dank für Ihre Unterstützung.


https://www.rocketmind.app/