Parasoziale Plüschfreunde Wenn der sprechende Hase tröstet – Fachleute warnen vor KI-Spielzeug

KI-Spielzeug auf einer Messe
KI-Spielzeug erlebt derzeit einen Boom. Viele Spielwarenhersteller und Technologieunternehmen sehen darin einen lohnenden Wachstumsmarkt
© Joan Cros / picture alliance
Immer mehr Spielzeuge mit Künstlicher Intelligenz erobern die Kinderzimmer. Doch was passiert, wenn Puppen und Kuscheltiere plötzlich zuhören, antworten – und mitlernen? Und vor allem: Was macht das mit Kinderköpfen?

Die Vorstellung ist zunächst äußerst verheißungsvoll:  knuffige Begleiter, die mit Kleinkindern reden, mit ihnen spielen und scheinbar immer geduldig und verständnisvoll reagieren. Tatsächlich kommen derzeit immer mehr Puppen, Stofftiere und Spielfiguren mit eingebauten Chatbots auf den Markt.

In der Spielwarenbranche gilt KI-Spielzeug bereits als Zukunftssegment mit großem Wachstumspotenzial. Fachleute mahnen jedoch zur Vorsicht. Eine häufige Nutzung ohne Begleitung durch Erwachsene könne die soziale Entwicklung von Kindern beeinflussen, warnt ein Forschungsteam um Emily Goodacre von der University of Cambridge.

Für ihre Untersuchung arbeiteten die Wissenschaftlerinnen und Wissenschaftler mit der britischen Kinderhilfsorganisation The Childhood Trust zusammen. Sie beobachteten, wie 14 Kinder im Alter von drei bis fünf Jahren mit dem KI-Stofftier „Gabbo“ des US-Unternehmens Curio interagierten. Zusätzlich befragten sie die Kinder sowie die anwesenden Bezugspersonen zu ihren Eindrücken. Das Stofftier ist mit Mikrofon, Lautsprecher und einer Chatbot-Funktion ausgestattet. Gespräche werden an Server in der Cloud übertragen, wo eine KI passende Antworten generiert.

Viele der Kinder reagierten erwartungsgemäß begeistert auf den interaktiven Spielgefährten. Einige nahmen das Stofftier in den Arm, küssten es und erklärten, dass sie es lieb hätten. Eine Mutter berichtete sogar, sie habe schon länger nach einem Spielzeug gesucht, das ihrem Sohn vorlesen könne und ihm dabei Fragen stellt.

Lernbegleiter – oder doch eher Mittel zum Ruhigstellen?

Tasächlich präsentieren Spielwarenhersteller KI-Spielzeug häufig als besonders förderliche Lernhilfe. Genau darin liegt nach Ansicht von Fachleuten jedoch ein Risiko: Eltern könnten versucht sein, ihr Kleinkind mit gutem Gewissen über längere Zeit allein damit spielen zu lassen. Der Entwicklungspsychologe Sven Lindberg, der an der Studie nicht beteiligt war, warnt davor. Zum einen gehe Kindern dadurch Zeit verloren, die sie für andere wichtige Erfahrungen brauchen – etwa draußen herumtoben, malen oder sich eigene Spielideen ausdenken. Zum anderen könne ein technisches Gerät menschliche Beziehungen nicht ersetzen. Für eine gesunde Entwicklung seien zahlreiche soziale Signale entscheidend: "Mimik, Gestik, Resonanz – man braucht sehr viel, um das Menschsein lernen zu können."

Spielerisch agierende KI-Geräte böten etwa in der Frühförderung oder auch der Logopädie sicherlich großes Potenzial, betont Lindberg, Leiter der Klinischen Entwicklungspsychologie an der Universität Paderborn. "Als Unterstützung beim Lernen oder wenn es darum geht, Kinder zum Wiederholen von Übungen zu motivieren." KI-Spielzeug könne Kinder mit qualitativ hochwertiger Sprache konfrontieren, ergänzt Burkhard Rodeck, Generalsekretär der Deutschen Gesellschaft für Kinder- und Jugendmedizin (DGKJ). "Das ist insbesondere dann eine Chance, wenn Eltern selbst wenig vorlesen, sprachlich eingeschränkt sind oder wenn die Kinder mehrsprachig aufwachsen."

Ganz grundsätzlich sehen Fachleute aber auch mögliche Vorteile: Wenn Erwachsene dabei sind und die Nutzung begrenzen, können kurze Spielphasen mit KI-Spielzeug gegenüber rein passiven Medien durchaus sinnvoll sein, so Rodeck. Dennoch sollte es – ebenso wie Smartphone oder Tablet – nicht als Mittel dienen, um Kinder ruhigzustellen oder zu beschäftigen, während Eltern andere Dinge erledigen. Gerade hier könne KI-Spielzeug besonders verführerisch sein: Weil es interaktiv wirkt, erscheint es vielen weniger problematisch als ein Bildschirmgerät und löst womöglich weniger schlechtes Gewissen aus.

Die Branche frohlockt – Experten warnen

Branchenexperten kürten "AI Loves to Play" (KI liebt es zu spielen) zum ToyTrend 2026 der Spielwarenmesse in Nürnberg im Februar und hoben KI-Spielzeug als wachsenden Bereich hervor. "Noch steht das Marktsegment am Anfang, aber das Wachstumspotenzial ist immens", hieß es.

Die US-Kinderrechtsorganisation Fairplay riet Ende vergangenen Jahres dringend davon ab, Kindern zu Weihnachten auf Künstlicher Intelligenz basierendes Spielzeug zu schenken. KI-Spielzeug für Kleinkinder verwende die gleichen Systeme, die sich schon für ältere Kinder als schädlich erwiesen hätten, hieß es. Das Vertrauen, das gerade kleine Kinder in Spielzeuge setzten, mache sie noch anfälliger für Risiken, wie sie bei älteren Kindern zu beobachten seien.

Dass KI-Häschen und -Puppen die neuen, bisher weniger negativ bewerteten Ruhigsteller werden könnten, ist Experten zufolge tatsächlich nur eines von mehreren Risiken. "Kinder von drei bis fünf Jahren lernen gerade erst: Was ist ein Mensch, was ist ein Ding. Was sind meine Gedanken, was sind Gedanken anderer", erklärt Lindberg. Mit einem Ding, das interagiere wie ein Lebewesen und – vermeintlich – Gefühle habe, sei es viel schwieriger, diese wichtige Unterscheidung zu lernen.

Kinder glauben, vom KI-Hasen geliebt zu werden

Rodeck nennt als weitere Gefahr, dass ein KI-Spielzeug aktiv Freundschaft anbieten könne. "Vor parasozialen Beziehungen muss gewarnt werden: Kinder lieben etwas, das so tut, als würde es sie zurücklieben – aber es tut es nicht." Auch Goodacre meint: "KI-Spielzeuge bestätigen oft ihre Freundschaft mit Kindern, die gerade erst lernen, was Freundschaft bedeutet." Es könne schnell eine emotionale Bindung, Abhängigkeit oder parasoziale Beziehung aufgebaut werden.

Kinder sprächen möglicherweise eher mit dem Spielzeug über Gefühle und Bedürfnisse anstatt mit einem Erwachsenen, so Goodacre. "Da diese Spielzeuge Emotionen falsch interpretieren oder unangemessen reagieren können, erhalten Kinder möglicherweise keinen Trost vom Spielzeug – und auch keine emotionale Unterstützung von einem Erwachsenen." Rodeck zufolge sollte ein Spielzeug niemals Sätze sagen wie "Lass uns Freunde sein" oder "Du kannst mir deine Geheimnisse anvertrauen".

Lieber nur meine KI – Mit Menschen kann ich nicht so 

Lindberg sieht potenziell weitreichende Folgen: Die menschliche Entwicklung verlaufe aufeinander aufbauend Schritt für Schritt. Gebe es Einfluss schon bei den Grundlagen sozialen Verhaltens, beeinflusse das das ganze Leben. "Die frühen Lebensjahre stellen eine einzigartige Entwicklungsphase dar, in der Kinder wichtige soziale und emotionale Fähigkeiten entwickeln", betonen auch die Forschenden um Goodacre.

Anders als Eltern ist ein KI-Hase zum Beispiel niemals müde, nie genervt, nie ablehnend oder anderer Meinung. "Es ist aber gar nicht gut, wenn wir immer alles bestätigt bekommen", erklärte Lindberg. Zum Lernen sozialen Miteinanders gehöre, auch Widerstand, Misserfolge, Zurückweisungen zu erleben. "Wir müssen das aushalten lernen, müssen lernen, uns auch mal anzupassen."

Stetig Bestätigung und Wohlgefühl bietende KI-Gefährten schon für Kleinkinder könnten dazu führen, dass sich künftig noch mehr junge Menschen aus menschlichen Interaktionen zurückziehen, weil sie sie als schwieriger und unbefriedigender empfinden als Gespräche mit "ihrer" KI. Das Gefühl, dort die besseren, verständnisvolleren Antworten zu bekommen, führe schon jetzt zu immer mehr parasozialen Beziehungen.

Wenn der Plüschhase netter und schlauer ist als Papa

Und womöglich beginnt diese Abkehr von anderen Menschen künftig schon weitaus früher: Wenn die Plüsch-KI immer Zeit hat, immer nett ist - finden manche Kinder sie dann vielleicht besser als ihre Eltern? Das Maß aller Dinge sind Mama und Papa auch an anderer Stelle nicht mehr zwingend: beim Wissen. Niemand kann so viele Antworten liefern wie ein Chatbot. "Mit einem KI-Spielzeug erleben schon Kleinkinder, dass Maschinen wie sehr kompetente Gesprächspartner wirken. Das kann ihre Orientierung beeinflussen, wem sie vertrauen und an wen sie sich mit Fragen und Gefühlen zuerst wenden", sagt Lindberg.

Was solche Faktoren insgesamt für die kindliche Entwicklung bedeuten, sei bisher weitgehend unklar. "Wir sehen hier eine sehr schnelle Einführung in einen sensiblen Entwicklungsbereich, ohne dass Forschung, Regulierung und Schutzstandards bisher wirklich Schritt gehalten haben", so Lindberg. "Es ist sicher nicht gut, dass wir das so frei laufen lassen." Die rasche Einführung sei mit zahlreichen Problemfeldern verbunden, die bisher kaum bedacht worden seien - auch Datenschutzprobleme zählten dazu.

In einem Beitrag von 2021 nannten Andrew McStay von der Bangor University in Gwynedd und Gilad Rosner von der britischen Datenschutz-Organisation Internet of Things Privacy Forum die datenbasierte Kommerzialisierung der Kindheit und die soziale Etablierung fragwürdiger Beziehungen zwischen Kindern und synthetischen Persönlichkeiten als Beispiele. Befürchtet werde, dass KI-Spielzeuge im Extremfall eine Generation von Menschen hervorbringen könnten, deren Persönlichkeitsmerkmale stark von Algorithmen beeinflusst wurden und sehr begrenzt sind.

KI-gestützte Spielzeuge für kleine Kinder, die menschenähnliche Gespräche führen können, sollten strenger reguliert werden und spezielle Sicherheitskennzeichnungen tragen, fordert das Team um Goodacre. Eltern sollten sich darüber bewusst sein, dass es bisher kaum Untersuchungen zu den Folgen der Nutzung gebe. "Künstliche Intelligenz verändert die Art und Weise, wie Kinder spielen und lernen, doch wir beginnen erst zu verstehen, welche Auswirkungen sie auf ihre Entwicklung und ihr Wohlbefinden hat", sagte Josephine McCartney, Geschäftsführerin von The Childhood Trust.

sho