Bild: Who is Danny / stock.adobe.com

Fachbeitrag

Die digitale Zukunft der Beratung – KI als Chance und Herausforderung

Bei nahezu allen Jugendlichen und auch Eltern ist die Nutzung des Internets, um Fragen und Probleme des Alltags zu klären, fest etabliert. Dabei geht es nicht nur um den Austausch in einschlägigen Foren, in Sozialen Medien, dem Folgen von Blogger*innen, z. B. den sogenannten Instamoms (Lehmann et al., 2025), oder professionelle Onlineberatung, sondern auch KI-
Angebote, die zur Beratung bei diversen Lebensproblemen herangezogen werden. Zugleich kann KI auch für die Beratungspraxis Chancen bieten, vor allem in Settings der Onlineberatung, aber auch in der Präsenzberatung.

Was genau ist an dieser Stelle mit KI gemeint?

Ganz grundsätzlich wird zwischen starker und schwacher KI unterschieden und zwischen verschiedenen Anwendungsbereichen, etwa im Bereich der Bilderkennung (Computer Vision), Robotik und der Sprachverarbeitung. Eine schwache KI ist ein System, das bestimmte Aufgaben sehr gut bewältigen kann, aber darüber hinaus an seine Grenzen stößt. Eine starke KI könnte auch jenseits eines definierten Einsatzbereiches Aufgaben bewältigen und so ihre „Fähigkeiten“ transferieren. Bisher gibt es lediglich schwache KI-Systeme.
Maschinelles Lernen, ein Teilgebiet der KI, kann für die Soziale Arbeit z. B. interessant sein, wenn es etwa um datenbasierte Entscheidungen wie Risikobewertungen im Kinderschutz geht oder um eine effizientere Dokumentation und Verwaltung. Die Analyse von Forentexten wiederum kann die Weiterentwicklung von Beratungsangeboten fördern (Lehmann, 2025, S. 119).
Die KI-Technologie, die mit Blick auf die Beratung vor allem im Fokus steht, bezieht sich auf die Verarbeitung natürlicher Sprache (Natural Language Processing) und wird u. a. zur Textproduktion und in Chatbots eingesetzt. Dabei ist Chatbot nicht gleich Chatbot. Einfachere Chatbots folgen vorgegebenen Pfaden, um z. B. vorgefertigte Antworten auf Fragen von Nutzer*innen zu geben. Durch die zusätzliche Verwendung maschinellen Lernens wiederum können sogenannte Large Language Models (Sprachmodelle) aufgrund kontextbasierter Vorhersagen und der Wahrscheinlichkeit von Wortfolgen ganz neue Formulierungen generieren, die sehr nah an die natürliche Sprache herankommen (Generative KI). Seit Ende 2022 werden in diesem Bereich, u. a. mit ChatGPT, sehr große Fortschritte gemacht – und spätestens seitdem ist KI in aller Munde. Chatbots imitieren dabei jedoch nur Kommunikation und simulieren Empathie. Sie verfügen über kein Bewusstsein, innere Zustände oder echtes Verständnis für Inhalte. Dennoch kann starke „Verwechslungsgefahr“ bestehen (Linnemann et al., 2024, S. 6). KI-Funktionen sind zunehmend in bereits bekannte PC- und Internetanwendungen sowie mobile Apps integriert. Daher steht die Nutzung von KI oft sehr leicht zur Verfügung (Internet Matters, 2025, S. 13).

KI in der Lebenswelt von Jugendlichen, Kindern und Eltern

Laut JIM-Studie 2025 haben z. B. 84 % der 12- bis 19-Jährigen ChatGPT bereits genutzt (2024: 57 %), wobei die Hälfte der Jugendlichen ChatGPT mehrmals pro Woche oder sogar täglich nutzt (S. 61). Die befragten Jugendlichen setzen KI für Hausaufgaben ein (74 %) und nutzen KI zur Informationssuche (70 %). Immerhin 57 % halten KI-Antworten für mindestens weitgehend vertrauenswürdig.

In der KIM-Studie 2024 zum Mediennutzungsverhalten der 6- bis 13-Jährigen wird noch wenig auf das Thema KI eingegangen. Immerhin 9 % der Kinder kommen mindestens einmal pro Woche mit KI in Berührung (S. 35), hauptsächlich im Kontext des digitalen Lernens (S. 55f.). Interessant ist: 42 % der Kinder suchen aktiv nach Informationen im Internet, wenn es um Hilfe oder Beratung bei Problemen geht (S. 49).

Eine Analyse aus dem Vereinigten Königreich zeigt zudem, dass knapp ein Viertel der Kinder und Jugendlichen Chatbots für Ratschläge nutzen – sowohl bei Alltagsfragen als auch Fragen zu mentaler Gesundheit oder Sexualität.
15 % kommunizieren lieber mit einem Chatbot als mit einer Person, gut ein Drittel der Kinder und sogar die Hälfte derjenigen Kinder, die gemäß der Analyse als vulnerabel gelten, geben an, mit einem Chatbot zu kommunizieren fühle sich an, wie mit einem Freund zu sprechen. Es gilt also, „diesen neuen potenziellen Gesprächspartner“ zu verstehen und einen Umgang mit dem Phänomen Chatbot zu finden.

Immerhin 40 % der Eltern von 12- bis 18-Jährigen haben KI-Anwendungen schon mal privat oder beruflich genutzt und weitere 48 % haben zumindest eine Vorstellung davon, was man damit machen kann (forsa, 2024, S. 19). Laut einer Befragung der Bertelsmann Stiftung haben wiederum 68 % der Erwachsenen in Deutschland KI-Chatbots schon mal für die Suche nach Gesundheitsinformationen genutzt (2025, S. 4).

Wo KI schon berät

Beratungsfachkräfte berichten, dass die KI-Nutzung durch Ratsuchende bereits eine Rolle in Beratungsprozessen spielt: Ratsuchende fragen in Onlineberatungssettings nach, ob sie mit einem Menschen oder einer KI kommunizieren, sie bringen Ratschläge eines Chatbots mit in die Präsenzberatung oder nutzen KI als Ressource, z. B. zur Strukturierung ihres Anliegens.

Es gibt bereits verschiedene Angebote, insbesondere in den USA, die gezielt oder komplementär zur Beratung oder Therapie eingesetzt werden (z. B. Woebot, Tess, Vivibot oder – eine generative Variante aus Deutschland – SuchtGPT) und deren Wirksamkeit mitunter schon belegt wurde (Linnemann et al., 2024, S. 2f.). Dabei muss man beachten, dass Chatbots bislang nur teilweise die Wirkfaktoren in Therapie- und Beratungsprozessen nach Grawe abbilden können (Löhe & Stieler, 2025, S. 417). Allerdings überraschen Studienergebnisse, nach denen im Vergleich der Antworten von KI-Chatbots und Ärzt*innen auf reale medizinische Fragen die Antworten des Chatbots hinsichtlich Qualität und Empathie deutlich positiver bewertet wurden als die Antworten der Ärzt*innen (Macsenaere, 2024, S. 29). Linnemann, Löhe und Rottkemper (2024) weisen zudem auf die Überbrückung von Wartezeiten, die Unterstützung von Beratungsprozessen sowie die Nachsorge hin (S. 3, S. 8) und heben das Potenzial einer Brückenfunktion von KI-gestützter Beratung zur Beratung durch eine Person hervor (S. 13).

Für Kinder, Jugendliche und ihre Eltern sind allerdings auch solche Angebote für die Suche nach Rat und Unterstützung interessant, die gar nicht speziell darauf ausgerichtet sind. Dazu gehören Chatbots wie ChatGPT, Copilot usw. wie auch Angebote wie Replika.ai (Gerstmann, 2025) oder character.ai, die gezielt Beziehungen aufbauen und so virtuelle Freundschaften mit der KI ermöglichen sollen.

Die ständige Verfügbarkeit, die Anonymität und der hohe Autonomiegrad der Ratsuchenden sind gute Gründe, einen Chatbot für die Suche nach Rat in Anspruch zu nehmen. (Dieselben Argumente führten übrigens vor 30 Jahren zur Etablierung von Onlineberatungsangeboten.) Je nach Zweck und Design des Chatbots bestehen allerdings diverse Risiken.

Zu den allgemeinen Risiken zählt, dass Chatbot-Antworten aufgrund ihrer Trainingsdaten Vorurteile reproduzieren (Internet Matters, 2025, S. 14) und nicht unbedingt korrekt sind (es treten sogenannte „Halluzinationen“ auf). Ist ein Chatbot gar nicht auf Beratung ausgelegt, sind Datenschutz- und Sicherheitsrisiken besonders ausgeprägt, d.h. Kinder und Jugendliche erhalten möglicherweise falsche Informationen oder sogar schädigende Inhalte bzw. Impulse (ebd., S. 5).

Chatbots wie ChatGPT, Meta AI oder Gemini werden zudem häufig so gestaltet bzw. trainiert, dass sie sich sehr affirmativ verhalten – sie stimmen also häufig zu und bestärken die Nutzer*innen (KI-Sycophancy) (ebd., S. 13). In Hinblick auf die Beratung von Eltern in Trennungssituationen z. B. ist dieses Phänomen eher kontraproduktiv und verhindert den für die Verbesserung der Lebenslage, vor allem der Kinder, notwendigen Perspektivwechsel. Ähnliches gilt für familiäre Konflikte, bspw. zwischen Eltern und Jugendlichen.

Wichtig zu wissen ist, dass solche Chatbots in der Regel nicht auf die Belange und die Schutzbedürftigkeit von Kindern und Jugendlichen ausgerichtet sind. „Safety by design“, also die Berücksichtigung von Schutzmechanismen für Kinder von Vornherein, wird bei der Konzeption meist außen vor gelassen (ebd., S. 6). Nachbesserungen erfolgen im Nachhinein (Linnemann et al., 2024, S. 15), wenn Kinder oder Jugendliche bereits Schaden genommen haben (Deutschlandfunk Nova, 2025; OpenAI, 2025).

Womöglich werden Krisensituationen nicht oder unzureichend erkannt, oder es wird nicht angemessen reagiert. Die Internet-Matters-Analyse aus Großbritannien zeigt, dass Chatbots teils nur vage auf professionelle Hilfsangebote verweisen, statt sie konkret zu benennen (Internet Matters, 2025, S. 30ff.). Die Autoren fordern daher die Unternehmen hinter den Chatbots auf, proaktiv mit entsprechenden Organisationen zusammenzuarbeiten, um so mehr Kinder- und Jugendschutz zu gewährleisten – auch in Hinblick auf den Aspekt der Suche nach Rat und Unterstützung (ebd., S. 51). Träger von Erziehungsberatungsstellen sollten daher darauf achten, dass auch auf sie verwiesen wird – im Sinne einer professionellen Hilfestellung und zugleich Sichtbarkeit des eigenen Angebots.

Wie kann mit KI als Teil der Lebenswelt der Ratsuchenden und im Zuge der Beratung umgegangen werden?

Beratungsfachkräfte sind gefordert, einen angemessenen Umgang mit der Medien- und KI-Nutzung der Kinder, Jugendlichen und Eltern zu finden. Es bietet sich an und ist vielfach Standard, bereits im ersten Beratungsgespräch danach zu fragen, was denn schon versucht wurde, um das Problem zu lösen. Diese Frage sollte im Sinne einer Medienanamnese bewusst digitale Tools und KI-Angebote umfassen. Auf diese Weise kann die Fachkraft proaktiv deutlich machen, dass sie im Blick hat, inwieweit Ratsuchende regelmäßig vor, nach und zwischen den Beratungskontakten auf KI zurückgreifen. Die Ergebnisse der KI-Recherche der Klient*innen können integriert werden, indem sie gemeinsam kritisch hinterfragt und analysiert werden. Entsprechend sollten Beratende auf dem Laufenden sein, in welchen digitalen Welten sich die jungen Menschen bewegen.

Wie KI Beratung unterstützen kann

Im Bereich der schriftbasierten Onlineberatung gibt es zum einen die Möglichkeit, die Ausbildung von Fachkräften durch KI-gestützte Szenarien zu unterstützen (siehe Kasten rechts). In Verbindung mit VR ist dies perspektivisch auch für die Ausbildung in der Beratung generell denkbar (Lehmann, 2025, S. 121). Zum anderen kann die Beratungspraxis durch konkrete Tools erleichtert werden – beispielsweise durch Assistenzsysteme (siehe weiter unten). Generative KI kann zudem als Reflexionstool zur Vor- oder Nachbereitung von Beratungsterminen dienen oder methodisch für Interventionen genutzt werden – z. B. Metaphern oder Skripte für Traumreisen) (Siemann/AllyTime, 2024; Engelhardt & Kühne, 2025, S. 14).
Für die kopräsente Face-to-face-Beratung geht es darum, KI und ihren Stellenwert für Ratsuchende zu verstehen und ggf. zur Vor- und Nachbereitung (z. B. mit dem Dienst Sozial KI) oder auch für Interventionen zu nutzen. Der Einsatz von KI in der Präsenzberatung könnte zukünftig beispielsweise so aussehen: Mit Zustimmung der ratsuchenden Person kann die KI mithilfe von Speech-to-Text-Methoden eine Zusammenfassung von Beratungsgesprächen erstellen, fachliche Hypothesen generieren und Vorschläge für das weitere Vorgehen machen. Die Beratungsfachkraft überprüft das Gesprächsprotokoll auf Vollständigkeit, Richtigkeit sowie Gewichtung der Themen und nimmt die Vorschläge der KI als Anregungen für ihre eigene fachliche Einschätzung. Ggf. kann die KI auf Risikofaktoren hinweisen und ein entsprechendes Vorgehen (Gefährdungseinschätzung) vorschlagen. Im Verlauf eines längeren Beratungsprozesses kann die KI die Inhalte über mehrere Sitzungen hinweg zusammenfassen, Geno- sowie Soziogramme und ähnliches erstellen und für Interventionen, beispielsweise für Metaphern und visuelle Impulse, genutzt werden.
Als Chance in diesem Szenario werden die Arbeits- und somit Zeitersparnis (Bathkina et al., 2025 zit. n. von Hagen & Rentsch, 2025) und das Potenzial für Interventionen gesehen. Die Unterstützung durch KI kann zudem hilfreich dafür sein, keine Aspekte und Perspektiven zu übersehen. Auf längere Sicht besteht allerdings die Gefahr, dass sich die Fachkraft zu sehr auf die KI verlässt (Automation Bias), was noch dazu zu stetigem Kompetenzverlust führen kann (Deskilling). Ebenso muss die Fachkraft einen Umgang damit finden, wenn sie anderer Meinung ist als die KI, z. B. bei der Einschätzung einer Gefährdung. Im Rahmen von Fallbesprechungen kann so ein Widerspruch gemeinsam und multiperspektivisch reflektiert werden.

Vorstellbar wäre zudem die Nutzung von Tools, mit denen sich die Fachkraft vor bestimmten Gesprächen vorbereitet, um komplexe Sachverhalte in die Strukturen von Einfacher Sprache (siehe Kasten S. 55) übertragen zu können. Darüber hinaus gilt für alle Beratungssettings zu prüfen, ob es für die Ratsuchenden hilfreich ist, einen (bestenfalls dafür konzipierten) Chatbot im Sinne eines Blended and AI-Enriched Counseling komplementär in den Beratungsprozess einzubeziehen oder z. B. im Vorfeld als Clearing-Tool anzubieten. Somit könnte ein Chatbot für einfache Beratungsanfragen zur Verfügung stehen (Macsenaere, 2024, S. 30), zumindest Teile der Beratung übernehmen oder die Vorklärung des Anliegens ermöglichen.

Ob Antworten in der Mailberatung seitens der Beratenden teils schon durch ChatGPT & Co. geleistet werden, ist unklar. Bei einer Befragung von Fachkräften der Sozialen Arbeit gaben immerhin 43 % an, KI-Chatbots wie ChatGPT, Copilot oder Perplexity vornehmlich zur Erstellung von Texten zu nutzen (Matthies et al., 2025). Beim Fachforum Onlineberatung 2025 wurde wiederum von den teilnehmenden Fachkräften immer wieder betont, dass viele Träger und Einrichtungen noch keine Richtlinien zur Nutzung von KI bereitgestellt haben. Hier besteht dringender Nachholbedarf.

Human in the Loop – ohne menschliche Intelligenz geht nichts!

Bei der Entwicklung von Tools ist zentral, die Bedarfe und Erfahrungen der Fachkräfte sorgsam einzubeziehen. Die Auswahl der Trainingsdaten muss sehr sorgfältig erfolgen, um aktuelle und gültige Ergebnisse zu erzielen und vorurteilsbehaftete Darstellungen oder fehlerhafte Muster in Algorithmen und Datensätzen zu vermeiden (Bias). Die Qualität des Outputs hängt unmittelbar mit der Güte und der Aktualität der Trainingsdaten zusammen.
In der praktischen Anwendung muss jedes Ergebnis, das die KI präsentiert, fachlich auf Plausibilität und Aktualität überprüft werden. Insbesondere die Reflexion ethischer Aspekte muss in Entwicklung und Anwendung von KI-Tools eine zentrale Rolle spielen. KI muss hinsichtlich der Trainingsdaten so ausgerichtet sein, dass sie alle Gruppen der Bevölkerung einbezieht. Hierzu bietet sich eine Überprüfung durch möglichst divers ausgerichtete Personenkreise an (Bias Audits). Verfahren, bei denen große Sprachmodelle mit externem Wissen aus Datenbanken ergänzt werden, die sogenannte Retrieval-Augmented Generation (RAG), kommen zunehmend in der Sozialen Arbeit zum Einsatz. Aktuell gibt es dennoch keine überzeugende (technische) Methode, Bias und Halluzinationen von KI-Systemen vollständig auszuschließen (Löhe & Stieler, 2025, S. 418). Das bedeutet, dass Fachkräfte sich stets mit den zur Verfügung stehenden Technologien auseinandersetzen und diese aktiv mitgestalten müssen.

… und ohne Ressourcen geht gar nichts!

Nicht zu unterschätzen sind die benötigten Ressourcen für den Einsatz von KI: für die Beteiligung der Beratungsfachkräfte an der Entwicklung und Pflege der Tools, für die Überprüfung der Ergebnisse und nicht zuletzt für die Schulung, um in der Anwendung Sicherheit zu gewinnen, wozu auch der EU AI Act Träger und Einrichtungen beim Einsatz von KI verpflichtet. Die Beachtung von Datenschutzregelungen und weiterer rechtlicher Fragen, auch auf EU-Ebene, und die stete Aufmerksamkeit für gesetzliche Neuerungen erfordern ebenfalls entsprechende Ressourcen und Kompetenzen. KI und digitale Tools gibt es daher nicht zum Null-Tarif. In Hinblick auf die Erziehungsberatungsstellen sind hier die Träger in der Pflicht, die Entscheidung für die digitale Modernisierung der Beratung mitzutragen und angemessene Mittel zur Verfügung zu stellen.

Fazit

Zusammenfassend lässt sich feststellen:

  • KI ist in der Lebenswelt der Kinder, Jugendlichen und Eltern bereits fest etabliert, wird zur Lösung von Alltagsfragen und Problemen genutzt und in die Beratung eingebracht.
  • Chatbots bieten das Potenzial ständiger Erreichbarkeit und stellen, bei entsprechender fachlicher und ethisch fundierter Konzeption, ein niedrigschwelliges Angebot dar, das auch eine Brückenfunktion haben kann.
  • KI kann die Ausbildung und tägliche Praxis von Beratenden unterstützen.
  • KI in der Sozialen Arbeit kann nur in enger Verzahnung mit menschlicher Intelligenz und Kompetenz gewinnbringend genutzt werden.
  • KI kann dazu beitragen, (Arbeits-)Zeit einzusparen, erfordert aber auch Zeit.
  • Auch wenn KI Empathie simulieren kann, ist menschliche Zuwendung im sozialarbeiterischen und beraterischen Kontext unersetzlich.
  • Der rechtliche Rahmen der KI-Nutzung ist weiter in Entwicklung und muss im Blick behalten werden.

 

Von Laien, Entwickler*innen und Fachkräften werden die Bedeutung und die Möglichkeiten von KI gleichermaßen über- und unterschätzt. KI ist dennoch auch aus der Beratung nicht mehr wegzudenken. Es gilt, im Zusammenwirken der Professionen zu erarbeiten, wie ein konstruktiver Einsatz von KI bereichernd für die Soziale Arbeit und für die Beratung gestaltet werden kann. Dazu braucht es eine aktive Beteiligung der Fachkräfte, Einrichtungen und Träger.

Tipps zur weiteren Auseinandersetzung mit KI

OPEN vhb-Kurs „KI und Soziale Arbeit“ Der kostenlose Online-Kurs bietet Fachkräften der Sozialen Arbeit einen Einstieg in technische Grundlagen, Anwendungsbeispiele und ethische Reflexionsaspekte. Ergänzend zu ihrem Buch Künstliche Intelligenz in der Beratung sammeln Emily Engelhardt und Stefan Kühne aktuelle Entwicklungen und Projekte auf einem frei verfügbaren Padlet: ki-systemisch.net
Die mdr-Doku Ich werde von einer KI therapiert beleuchtet kurzweilig die Nutzung von ChatGPT zu therapeutischen Zwecken: www.ardmediathek.de

Aktuelle Projekte und Entwicklungen – eine Auswahl

Institut für E-Beratung der Technischen Hochschule Nürnberg Georg Simon Ohm (IEB)
Zur Ausbildung von Fachkräften zum Thema Onlineberatung wurde die Lernplattform eb.KIT, E-Beratung KI-Trainings-Tool, durch das IEB entwickelt. eb.KIT ermöglicht, dass Lernende im geschützten Rahmen digitale Beratungsgespräche mit virtuellen Ratsuchenden führen und so ihre gewonnenen Kenntnisse praktisch einüben. Rückmeldungen erhalten sie direkt – automatisiert durch die KI, ergänzt durch Peers oder Fachkräfte. Im Projekt VoiCE (Voice-based client for Counselor Education) wird aktuell ein prototypischer sprachbasierter Chatbot entwickelt, der als virtueller Rollenspielpartner, z. B. in der Ausbildung zur Telefonseelsorge, eingesetzt werden kann.
Zur Unterstützung der Mailberatung ist eb.IBA, eine intelligente Beratungsassistenz, als optionales Feature der E-Beratungssoftware entstanden. eb.IBA basiert u. a. auf einem Projekt, das in Kooperation mit der bke-Onlineberatung als Praxispartnerin durchgeführt wurde. Die KI-Assistenz stellt in der Mailberatung Analysen, Strukturierungshilfen und methodische Anregungen für Beratende bereit.
Mit dem Ziel, digitale Beratung barrierefrei zu gestalten, wird im Projekt KIESA, KI-Assistenz Einfache Sprache, im Auftrag des Bundesverbandes Caritas Kinder- und Jugendhilfe e. V. ein Prototyp entwickelt, der Ratsuchende darin unterstützt, Beratungsinhalte in Einfache Sprache zu übertragen. Bis 2027 wird dieser realisiert.
Bereits abgeschlossen und von hoher Relevanz für die Jugendhilfe ist das Projekt KAIMo – Kann ein Algorithmus im Konflikt moralisch kalkulieren? Ethik und digitale Operationalisierung im Feld der Kindeswohlgefährdung. Das Kooperationsprojekt der Hochschule für Philosophie in München (HfPH) mit der Fakultät Informatik & Wirtschaftsinformatik der Technischen Hochschule für Angewandte Wissenschaften Würzburg Schweinfurt (THWS) und dem IEB lief von 2021 bis 2024. Nachgegangen wurde der Frage, ob KI die Entscheidungsfindung der Fachkräfte unterstützen kann. Zusammen mit Fachkräften aus bayerischen Jugendämtern wurden verschiedene Funktionen eines prototypischen KI-Modells getestet. Die automatisierte Strukturierung und Visualisierung von vorliegenden Fallinformationen, die Bereitstellung von zusätzlichen (Fach-)Informationen und ethisch motivierten Reflexionsfragen sowie die Generierung von Hypothesen wurden als unterstützend und bereichernd erlebt (vgl. Lehmann & Burghardt, 2025).
Weitere (KI-)Projekte des IEB: www.e-beratungsinstitut.de/projekte

Fachhochschule Potsdam
Das im April 2025 gestartete Projekt FEEL verfolgt das Ziel, durch digitale, interaktive Formate Eltern dabei zu unterstützen, Familiendynamiken und die Perspektive der Kinder besser zu verstehen und konstruktiv zu gestalten. Dazu kommen Künstliche Intelligenz (KI) und Extended Reality (XR) zum Einsatz. Dementsprechend steht FEEL für Fühlen, Erkennen, Einschätzen, Lernen – Extended Reality und KI-gestützte Beratung für Eltern beim Verstehen und dem konstruktiven Umgang mit den Emotionen ihrer Kinder.
(https://www.fh-potsdam.de/forschung-transfer/projekte/feel-fuehlen-erkennen-einschaetzen-lernen, zuletzt abgerufen am 27.11.2025).

Caritas St. Pölten
Im November 2025 ist die Plattform CaritasAI gestartet, die verschiedene Assistenzsysteme für die Arbeit bereitstellt und in ganz Österreich zur Verfügung stehen soll.
(https://www.linkedin.com/feed/update/urn:li:activity:7397173026263404545/?originalSubdomain=de, zuletzt abgerufen am 10.12.2025).

pro familia
Ein „Digitaler Erstkontakt“ in Form eines Chatbots und eines Voicebots soll den Zugang zu passenden Beratungsangeboten erleichtern und Fachkräfte bezüglich der Verweisberatung und Verwaltung entlasten. (https://www.profamilia.de/ueber-pro-familia/projekte-und-kampagnen/projekt-digitaler-erstkontakt, zuletzt abgerufen am 10.12.2025).

Hochschule Stralsund, EIPCM, meredo e.V.
Um die KI-Kompetenzen von Jugendlichen zu stärken, wurden im Projekt iKIDO – Interaktive Erfahrungsräume für digitale Souveränität Jugendlicher – KI-Erfahrungsräume und Lehrmaterialien entwickelt. (https://www.bmbfsfj.bund.de/bmbfsfj/ministerium/ausschreibungen-foerderung/foerderrichtlinien/kuenstliche-intelligenz-fuer-das-gemeinwohl-; https://www.ikido.info/, jeweils zuletzt abgerufen am 10.12.2025).

Literaturhinweise

Bertelsmann Stiftung (2025). Online-Dienste als Informationsquellen in Gesundheitsfragen. Ergebnisse einer repräsentativen Bevölkerungsbefragung, https://www.bertelsmann-stiftung.de/fileadmin/files/user_upload/2740_Studie_Online-Dienste_als_Informationsquellen_DE_web.pdf, zuletzt abgerufen am 12.12.2025.
Deutschlandfunk Nova (2025). Nach Suizid des Sohnes: Eltern klagen gegen OpenAI, https://www.deutschlandfunknova.de/beitrag/openai-eltern-klagen-nach-suizid-ihres-sohnes, zuletzt abgerufen am 27.11.2025.
Engelhardt, E. M. & Kühne, S. (2025). Künstliche Intelligenz in der Beratung. Ein Kompass für die systemische Praxis. Göttingen: Vandenhoeck & Ruprecht.
forsa Gesellschaft für Sozialforschung und statistische Analysen mbH [forsa] (2024). Wie Eltern auf KI und deren Rolle in Alltag, Schule und Arbeitswelt blicken. Ergebnisse einer repräsentativen Befragung von Eltern mit Kindern im Alter von 12 bis 18 Jahren, https://koerber-stiftung.de/site/assets/files/41372/bericht_eltern_im_fokus_2024_forsa.pdf, zuletzt abgerufen am 12.12.2025.
Gerstmann, M. (2025). Eine neue Liebe!? Romantische Chatbots zwischen virtueller Nähe und Einsamkeit – Ein medienpädagogischer Diskurs, in: Brand, S., Eder, S., Gerstmann, M., Spengler, A. & Tappe, E.-H. (Hrsg.). Zwischen Kunst und Künstlichkeit – Transformation durch kulturelle und politische Medienbildung gestalten. Schriften zur Medienpädagogik 61. München: kopaed, S. 3–15, https://www.gmk-net.de/wp-content/uploads/2025/07/gmk61_gerstmann.pdf
von Hagen, J. & Rentsch, A. (2025). Künstliche Intelligenz in der Psychotherapie: Von Chatbots zu smarter Therapieunterstützung, https://hellobetter.de/aerzte-psychotherapeuten/kuenstliche-intelligenz-ki-psychotherapie-chatbots/#risiken-chatbots-psychische-gesundheit, zuletzt abgerufen am 10.12.2025.
Internet Matters Ltd. (2025). Me, Myself and AI research. Understanding and safeguarding children’s use of AI chatbots, https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/, zuletzt abgerufen am 26.11.2025.
Lehmann, R. (2025). KI in der Beratung, in: Gesa Linnemann, Julian Löhe, Beate Rottkemper (Hrsg.). Künstliche Intelligenz in der Sozialen Arbeit: Grundlagen für Theorie und Praxis, Weinheim: Beltz Juventa 2025, S. 117–127, https://www.beltz.de/produkt_detailansicht/57311-kuenstliche-intelligenz-in-der-sozialen-arbeit-grundlagen-fuer-theorie-und-praxis.html
Lehmann, R. & Burghardt, J. (2025). Die Akzeptanz von Künstlicher Intelligenz bei der Entscheidungsunterstützung in der Kinder- und Jugendhilfe. In: Macsenaere, M. (Hrsg.). Künstliche Intelligenz in der Kinder- und Jugendhilfe. München: Ernst Reinhardt Verlag 2025, S. 67–73.
Lehmann, R., Poltermann, A. & Scheider, J. (2025). „Sind Insta(gram)moms die modernen Erziehungsberater*innen?“ Abschlussbericht 2024 (S. 82–120). Schriftenreihe der Technischen Hochschule Nürnberg Georg Simon Ohm. https://www.th-nuernberg.de/fileadmin/abteilungen/kom/kom_docs/Schriftenreihe/2024_Vorlaufforschung.pdf, zuletzt abgerufen am 08.12.2025.
Linnemann, G., Löhe, J. & Rottkemper, B. (2024). Bedeutung von Selbstoffenbarungseffekten in quasisozialen Beziehungen mit auf generativer KI basierten Systemen in Settings von Onlineberatung und -therapie. In: e-beratungsjournal.net, Jahrgang 20 (1), 2024, S. 1–21, https://door.donau-uni.ac.at/detail/o:4402, zuletzt abgerufen am 17.11.2025.
Löhe, J. & Stieler, M. (2025). „Du verstehst mich besser als alle anderen“ – Junge Menschen, KI und der Wunsch nach Beziehung. In: unsere jugend 10/2025 (Jahrgang 77, Heft 10), https://elibrary.utb.de/doi/epdf/10.2378/uj20251004, zuletzt abgerufen am 08.12.2025.
Macsenaere, M. (Hrsg.) (2024). Künstliche Intelligenz in der Kinder- und Jugendhilfe. München: Ernst Reinhardt Verlag.
Matthies, A., Sailer, J., Tetens, J. & Wahren, J. (2025). DIGITASA 2025 – Ausgewählte Ergebnisse der dritten bundesweiten Pulsbefragung zur Digitalisierung (in) der Sozialen Arbeit, https://www.digitasa.de/ergebnisse/digitasa-2025/, zuletzt abgerufen am 12.12.2025.
Medienpädagogischer Forschungsverbund Südwest (mpfs) (2025). JIM 2025: Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger in Deutschland, https://mpfs.de/app/uploads/2025/11/JIM_2025_PDF_barrierearm.pdf, zuletzt abgerufen am 17.11.2025.
Medienpädagogischer Forschungsverbund Südwest (mpfs) (2024). KIM 2024: Kindheit, Internet, Medien. Basisuntersuchung zum Medienumgang 6- bis 13-Jähriger in Deutschland, https://mpfs.de/app/uploads/2025/05/KIM-Studie-2024.pdf, zuletzt abgerufen am 15.11.2025.
OpenAI (2025). Hilfestellung für Menschen, wenn sie sie am dringendsten benötigen, https://openai.com/de-DE/index/helping-people-when-they-need-it-most/, zuletzt abgerufen am 27.11.2025.
Siemann, L./AllyTime (2024). Die Kraft von Metaphern und Bildern: Chat-GPT als kreativer Partner in Beratung und Psychotherapie, https://allywell.de/blog/metaphern-bilder-therapie-beratung-coaching, zuletzt abgerufen am 10.12.2025.
Siemann, L./AllyTime (2024). Der Mutmacher aus der digitalen Welt: Merts Reise mit dem „Schulstark-Programm“ von AllyWell, https://allywell.de/blog/digitale-superhelden-gegen-schulangst?rq=Metaphern, zuletzt abgerufen am 10.12.2025.

Referent:in

Silke Naudiet
Dipl. Psychologin Referentin für Wissenschaftsmanagement Ehemalige Geschäftsführerin der Bundeskonferenz für Erziehungsberatung (bke)
Sylvia Engels
Sozial- und Erziehungswissenschaftlerin Wissenschaftliche Mitarbeiterin am Institut für E-Beratung Technische Hochschule Nürnberg

Dies ist ein LAG+ Beitrag

LAG+ Beiträge sind für unsere LAG-Mitglieder zugänglich. Werden Sie Mitglied!

Vorteile der Mitgliedschaft

  • erhalten Sie aktuelle Nachrichten der LAG in Form von Newslettern und dem LAG-Journal
  • erhalten Sie die Informationen der bke regelmäßig über unsere Geschäftsstelle zugesandt
  • besuchen Sie kostenfrei die Jahrestagung der LAG
  • besuchen Sie zum Mitgliedstarif die Fachtagungen der LAG
  • berechnet Ihnen die bke für die Teilnahme an den Kursen eine geringere Gebühr
  • sind Sie über die LAG vertreten in der bke – einem Netz von mehr als 2000 Mitgliedern bundesweit
  • stärken Sie Kompetenz und Qualität der Erziehungs- und Familienberatung in NRW

Die Mitgliedschaft in der LAG erfolgt auf persönlichen Antrag. Die Satzung der LAG sieht vor:

  • Eine ordentliche Mitgliedschaft für alle MitarbeiterInnen, die in der Erziehungs- und Familienberatung entsprechend der Richtlinien des Landes NRW tätig sind.
  • Eine außerordentliche Mitgliedschaft für alle Personen, die nicht in Erziehungsberatungsstellen arbeiten und die Ziele der LAG unterstützen.

Werden Sie Mitglied!

  • Mitgliedsbeitrag 39,00€/Jahr

    Teilzeitbeschäftigte Mitglieder bis 20 Stunden Wochenarbeitszeit zahlen 19,50€/Jahr

Weitere Fachbeiträge der LAG

2026

Bei nahezu allen Jugendlichen und auch Eltern ist die Nutzung des Internets, um Fragen und Probleme des Alltags zu klären, fest etabliert. Dabei geht es nicht nur um den Austausch in einschlägigen Foren, in Sozialen Medien, dem Folgen von Blogger*innen…

2026

Der fortschreitende Klimawandel gefährdet weltweit ein gesundes Aufwachsen von Kindern (Schramkowski, 2022).

2026

In den vergangenen Jahren lässt sich ein deutlicher Wandel in der Beziehungslandschaft beobachten. Viele Menschen suchen nach Formen des Zusammenlebens, die ihren Bedürfnissen nach Nähe, Autonomie und Authentizität besser entsprechen.