Das Prüfungs- und Beratungsunternehmen EY hat den „AI Sentiment Index 2025“ veröffentlicht. Im Rahmen dieser Studie wurden mehr als 15‘000 Menschen in 15 Ländern zu KI-Anwendungen befragt – mehr als 1‘000 davon in Deutschland.
Acht von zehn Nutzerinnen und Nutzern von Künstlicher Intelligenz (KI) in Deutschland (80 Prozent) finden, dass KI-Anwendungen ihre Bedürfnisse genau verstehen. Damit belegen die Befragten hierzulande im internationalen Vergleich den Spitzenplatz in dieser Kategorie. Ähnlich hohe Zustimmungswerte wie in der Bundesrepublik gibt es auch unter den Menschen in Japan und Schweden (jeweils 77 Prozent) sowie in Brasilien (76 Prozent). Nutzerinnen und Nutzer in Südkorea (61 Prozent) und Indien (67 Prozent) bewerten die KI-Umsetzungen ihrer Anfragen dagegen deutlich schlechter.
AI Sentiment Index 2025: die wichtigsten ergebnisse
8 von 10 Usern (80 Prozent) sagen, dass Künstliche Intelligenz (KI) ihre Bedürfnisse versteht – Deutschland damit Spitzenreiter im internationalen Vergleich.
Westlich geprägte Länder schätzen Möglichkeiten der Künstlichen Intelligenz deutlich anders ein als User in Asien.
Mehrheit fürchtet sich vor negativen KI-Anwendungen, beispielsweise in Form von „Deep Fakes“ oder „Fake News.
KI-Anwendungen: Vertrauen ist gut – Kontrolle fällt weg?
Nur etwas mehr als ein Viertel der Befragten (27 Prozent) hierzulande sagt, dass sie die Ergebnisse, die die KI für sie generiert – ob Texte, Bilder oder Übersetzungen – gegenchecken. Im weltweiten Vergleich (31 Prozent) ist dies ein unterdurchschnittlicher Wert. Deutlich höher ist dieser bei Menschen in Südkorea (42 Prozent), China und Indien (jeweils 40 Prozent). Nutzerinnen und Nutzer in Frankreich und Schweden (jeweils 23 Prozent) überprüfen die generierten Endprodukte dagegen noch seltener als User in Deutschland.
Dies sind Ergebnisse des „AI Sentiment Index 2025“ von EY, für den mehr als 15‘000 Menschen in 15 Ländern befragt wurden – mehr als 1‘000 davon in Deutschland.
David Alich, Partner bei EY in Deutschland und AI-Lead für die Region Europe West, sagt: „Der Anteil der KI-Nutzerinnen und -Nutzer ist in den vergangenen Monaten rasant gestiegen, vor allem im Bereich der Text- und Bild-Erstellung. Bei alltäglichen Anwendungen erleben immer mehr Menschen KI als ein nützliches Werkzeug, ob privat oder beruflich. Wie bei allen jeder neuen Technologie muss man deren Einsatz aber trainieren. Andernfalls birgt diese Technologie auch Herausforderungen, denn die KI-generierten Ergebnisse sind oft gut, aber beileibe nicht perfekt. Es braucht meistens eine Überprüfung und eine Überarbeitung – eine menschliche Kontrollinstanz.“
Sorgloser Umgang mit der Technologie kann schwerwiegende Folgen haben
Blindes Vertrauen in Inhalte, ob selbst erstellt oder im Internet konsumiert, berge Gefahren, so Alich weiter: „Dass nur jede und jeder Vierte die KI-Ergebnisse überprüft, sollte ein Weckruf sein und spricht für einen zu sorglosen Umgang mit der Technologie, der gerade im beruflichen Umfeld schwerwiegende Folgen haben kann – für Anwender selbst, aber auch ihre Arbeitgeber.“
Zudem zeigt es sich, dass nur eine geringe Anzahl an KI-Nutzerinnen und -Nutzern bereit ist, das zu überarbeiten, was die KI ihnen generiert hat. In Deutschland sagt dies nur gut jede und jeder Siebte (15 Prozent) – weniger als im weltweiten Vergleich (19 Prozent). Zum Vergleich: In China und Indien (jeweils 32 Prozent) stecken Nutzerinnen und Nutzer deutlich mehr Arbeit in den Feinschliff KI-generierter Texte, Fotos und Co. Befragte in Frankreich (12 Prozent), Großbritannien und Japan (jeweils 13 Prozent) bearbeiten die Endprodukte von KI-Inhalten noch seltener als die Menschen in Deutschland.
Asiatische Anwender setzen sich kritischer mit den Ergebnissen auseinander
Das Vertrauen in eigene KI-Erzeugnisse ist zwar groß – aber wenn die KI ohne menschliche Aufsicht agiert, haben vor allem Nutzer aus westlich geprägten Ländern offenbar erhebliche Bedenken. Alich: „In Asien sind die Vorbehalte gegenüber KI-Technologien deutlich geringer als in Europa. Die Anwendungen werden dort allerdings nicht nur selbstverständlicher genutzt, Nutzerinnen und Nutzer setzen sich auch kritischer mit den generierten Ergebnissen und Inhalten auseinander.“
Dieser kritische Anspruch und Umgang mit den Ergebnissen der KI ist laut Alich umso wichtiger, weil künstliche Intelligenz kommerzielle Geschäftsmodelle in den kommenden Jahren radikal verändern werde – und zwar insbesondere in Bereichen, in denen standardisierte menschliche Tätigkeiten dominieren, unter anderem im Finanzsektor oder im Gesundheitsbereich. In letzterem Feld sind KI-Anwendungen beispielsweise schon heute in der Lage, basierend auf vorliegenden Daten potenzielle Gesundheitsprobleme von Patienten vorherzusagen, bevor sie schwerwiegend werden – allerdings sind die Menschen etwa in Deutschland skeptisch: Nur knapp vier von zehn Befragten (39 Prozent) fühlen sich bei dem Gedanken daran wohl – und bilden damit zusammen mit Frankreich das Schlusslicht. Der weltweite Durchschnitt liegt bei 57 Prozent, Befragte in asiatischen Ländern wie Indien (76 Prozent) und China (74 Prozent) sind deutlich offener, was den Umgang mit ihren persönlichen Gesundheitsdaten angeht.
Ungutes Gefühl
Sich von einem KI-„Allgemeinmediziner“ anstelle einer menschlichen Ärztin oder eines menschlichen Arztes behandeln zu lassen, bereitet den Menschen hierzulande ebenfalls Bauchschmerzen: Nur etwas mehr als ein Viertel (26 Prozent) kann sich diese Art der Untersuchung vorstellen – im weltweiten Durchschnitt sind es 37 Prozent. Alich sagt: „Zahlreiche Nutzerinnen und Nutzer haben ein ungutes Gefühl, wenn es darum geht, ihre persönlichsten Daten mit einer Maschinenintelligenz zu teilen. Hier sind die Unternehmen und Anbieter derartiger Dienste gefragt; sie müssen garantieren, dass die empfindlichen Daten der Nutzerinnen und Nutzer nicht in die falschen Hände gelangen oder anders verwendet werden, als die Nutzer dies erwarten und befürworten. Und selbstverständlich ist auch der Gesetzgeber als kontrollierende und ahndende Instanz gefragt.“
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Sorgen vor KI-generierten Fake News
Sorgen bereitet der Mehrheit der Nutzerinnen und Nutzer auch die Missinformation, die durch KI erzeugt und gestreut werden kann, beispielsweise in Form von Deep Fakes. Sieben von zehn Befragten (70 Prozent) in Deutschland sagen, dass sie sich hierüber Sorgen machen – etwas weniger als der internationale Durchschnitt von 75 Prozent.
Laut Alich hat Europa, nicht zuletzt wegen des vielbeachteten EU AI Acts, aktuell eine Vorreiterrolle bei der KI-Regulatorik inne – muss aber gleichzeitig darauf achten, dass die Technologieunternehmen in Europa durch einen zu engen Vorgabenkäfig gegenüber der internationalen Konkurrenz – vor allem aus den USA und China – nicht weiter ins Hintertreffen geraten: „Es braucht klare Richtlinien und Standards für den Einsatz von KI, die die Sicherheit, Transparenz und Ethik von KI-Anwendungen gewährleisten. ,Safety first‘ darf aber nicht dazu führen, dass Tech-Startups und -Unternehmen aus Europa den Anschluss an die Konkurrenz verlieren. Denn Fakt ist: Wir haben ausgesprochen kluge Köpfe auf dem Kontinent, die an zahlreichen interessanten und vielversprechenden Anwendungen aus dem KI-Bereich arbeiten und das Potenzial haben, die Entwicklung dieser Technologie auch in Europa zu prägen. Sollte dies nicht passieren und der Standort Europa erneut in ein technologisches Abhängigkeitsverhältnis geraten, wäre dies ein fatales Signal für die Wirtschaft und die Menschen des Kontinents.“