
Wenn KI und Suche verschmelzen, ist das ein Thema der Vielfaltssicherung
ÜberÂnahÂme der PresÂseÂmitÂteiÂlung | die medienanstalten | 14/2025
Berlin, 14. Oktober 2025: Die Integration generativer Künstlicher Intelligenz (KI) in Suchmaschinen hat tiefgreifende Auswirkungen auf die Informations- und Meinungsvielfalt. Zu diesem Ergebnis kommt die Studie von Prof. Dirk Lewandowski von der Hochschule für Angewandte Wissenschaften Hamburg, Fakultät Informatik und digitale Gesellschaft, im Auftrag der Medienanstalten. Die systematische Untersuchung zeigt: KI-basierte Suchantworten schaffen neue Inhalte und verdrängen etablierte Informationsquellen. Denn Anwendungen wie AI Overviews, Bing Copilot Search, Perplexity oder ChatGPT beantworten Suchanfragen zunehmend selbst – ohne dass Nutzende die dahinterliegenden Quellen noch aufrufen müssen. Das hat weitreichende Folgen für die Sichtbarkeit journalistischer Angebote, die Refinanzierung von Medien und die Vielfalt der online zugänglichen Informationen.
Dr. Eva Flecken, Vorsitzende der Direktorenkonferenz der Landesmedienanstalten (DLM) und Direktorin der Medienanstalt Berlin-Brandenburg (mabb), sagt: „Wenn KI und Suche verschmelzen, wirkt sich das auf jede Informationssuche im Netz von uns aus. Aus Nutzersicht mag es super-praktisch sein, wenn eine KI-Anwendung mir meine Fragen und Nachfragen beantwortet. Doch woher kommen die Antworten eigentlich? KI-Antworten dürfen nicht vielfaltsverengend wirken und die Anbieter tragen die Verantwortung für ihre Antworten. Wir müssen außerdem sicherstellen, dass journalistisch-redaktionelle Inhalte noch zu ihrem Publikum durchdringen und damit ihre Geschäftsgrundlage erhalten. Hier spielen sowohl das deutsche Medienrecht als auch die Durchsetzung des Digital Service Acts eine entscheidende Rolle. Als Medienanstalten werden wir hier unseren Beitrag leisten in dem Rahmen, den uns der Gesetzgeber vorgibt. Ein Rahmen übrigens, der mit der technologischen Entwicklung Schritt halten muss, damit wir wirksam bleiben können.“
Eva-Maria Sommer, als Direktorin der Medienanstalt Hamburg Schleswig-Holstein (MA HSH) auch Themenverantwortliche für Medienintermediäre innerhalb der DLM, ergänzt: „Das bisher geltende Haftungsprivileg der Plattformen greift nicht mehr. Google, Microsoft & Co tragen, wie alle anderen Inhalteanbieter auch, die Verantwortung dafür, dass ihre eigenen KI-Antworten den medienrechtlichen Vorgaben entsprechen. Zudem birgt die Kombination aus prominenter Präsentation eigener Suchergebnisse und potenziell sinkendem Traffic auf etablierte, journalistische Quellen im Netz die Gefahr einer Monopolisierung der Meinungsmacht. Dem müssen und werden wir wirksam begegnen.“
Die Kernergebnisse des Gutachtens
Funktionsanalyse wirft Fragen zu Transparenz und Verlässlichkeit auf: Etablierte Suchmaschinen integrieren KI-Antworten direkt in ihre Ergebnisse und beeinflussen damit die Sichtbarkeit anderer Treffer. Im Gegensatz dazu präsentieren Perplexity.ai oder ChatGPT ausschließlich KI-Antworten. Es wurden deutliche Unterschiede in der Darstellung, Quellenzuordnung und den Hinweisen auf die Fehleranfälligkeit der KI-Antworten festgestellt, wobei ChatGPT oft auf Quellenangaben verzichtet. Das wirft Fragen zur Transparenz und Verlässlichkeit der Suchergebnisse auf.
Journalistische Geschäftsmodelle durch Traffic-Verschiebung in Gefahr: Die meisten Suchmaschinen finanzieren sich über Werbung. KI-Antworten präsentieren Informationen oft direkt auf der Suchergebnisseite. Es besteht die Gefahr, dass der Traffic zu den ursprünglichen Inhalteanbietern drastisch sinkt. Vorhandene Studien zeigen Traffic-Verluste für Inhalteanbieter in einer Spanne von 18 Prozent bis über 50 Prozent. Dies bedroht die Refinanzierung der Inhaltsproduktion, die für eine vielfältige Informationslandschaft unerlässlich ist.
Folgen für die Informations- und Meinungsvielfalt: Traditionelle Suchergebnisse werden nach unten gedrängt und weniger sichtbar. KI-Antworten können die Vielfalt der Positionen erhöhen, indem sie verschiedene Perspektiven und Informationen aus unterschiedlichen Quellen zusammenfassen und Nutzern in leicht verarbeitbarer Form darbieten. Langfristig kann ein Traffic-Verlust für Inhalteanbieter aber dazu führen, dass die Produktion hochwertiger, vielfältiger Inhalte im Internet wirtschaftlich nicht mehr tragbar ist. Dies hätte negative Auswirkungen auf die Informations- und Meinungsvielfalt.
Ein Folgegutachten der Medienanstalten wird nach der heute vorgelegten Analyse den medienrechtlichen Rahmen beleuchten, um daraus konkrete Ableitungen auch für die Arbeit der Medienanstalten im entsprechenden Kontext zu liefern.
Methodik: Das heute veröffentlichte Gutachten stützt sich auf eine systematische Literaturrecherche und eine detaillierte Analyse der genannten Such- und KI-Systeme (Google, Bing, Perplexity.ai, ChatGPT). Die Datenerhebung erfolgte im Mai 2025.
Die Ergebnisse des Gutachtens finden Sie hier: https://www.die-medienanstalten.de/service/gutachten/ki-suchmaschinen/
Impuls – Wie sich Künstliche Intelligenz auf Vielfalt auswirkt
Ruth Meyer, Direktorin der Landesmedienanstalt Saarland (LMS) und Themenverantwortliche Direktorin der Direktorenkonferenz der Landesmedienanstalten (DLM)
Das Gutachten von Prof. Lewandowski zeigt eindrücklich, dass und wodurch die Verbindung von Künstlicher Intelligenz und Suche Auswirkungen auf die Meinungsvielfalt nimmt. Sei es im Zuge der Integration von KI-Anwendungen in Medienintermediäre, wie bei AI-Overviews und Bing Copilot Search, oder durch die Kombination von LLMs mit Dokumentenretrieval via RAG (Retrieval Augmented Generation), wie bei ChatGPT oder Perplexity.
Grundpositionen der Medienanstalten: KI und Medien – Vielfalt stärken, Verantwortung regeln, Vertrauen wahren
Die Medienanstalten haben sich in ihrem Papier „KI und Medien - Vielfalt stärken, Verantwortung regeln, Vertrauen wahren“bereits Anfang 2024klar positioniert und darauf hingewiesen, dass sie bei aller Achtung der Potentiale der neuen Schlüsseltechnologie die wachsende Rolle von KI bei der Erstellung, Verbreitung und Nutzung von Medieninhalten im Blick behalten und den Fokus auf alle Auswirkungen auf Medienvielfalt und öffentliche Meinungsbildung richten werden.
Schon hier haben wir klargemacht: auch und gerade, wenn KI bei der Produktion redaktioneller Medienangebote zum Einsatz kommt, ist Multiperspektivität zu gewährleisten. Es muss also „eine möglichst breite, vielfältige Ausleuchtung statt enger Sichtweise und Festlegung“ geben. Auch darf die Erfüllung Journalistischer Sorgfaltspflichten nicht durch die Nutzung von KI umgangen oder ausgehöhlt werden: „Es sind Vorkehrungen mitzudenken, die es erlauben, für die Inhalte weiterhin und in gleichem Umfang die Verantwortung zu übernehmen.“
Das Gutachten zeigt: Die untersuchten Systeme werden diesen Anforderungen insgesamt nicht gerecht.
Die Funktionsweise von KI-Systemen hat großen Einfluss auf die Vielfalt
Die im Gutachten analysierten ökonomischen Effekte und Vielfaltsrisiken werden verschärft durch zentrale Mechanismen der Technologie KI bzw. des Maschinellen Lernens – und erhöhen damit den Handlungsbedarf für die Regulierung:
- Content Automation erlaubt die Generierung und Vervielfältigunggroßer Mengen von Inhalten etwa auch durch Bots und interessengesteuerte Maschinen, diein den Datenraum bzw. Trainingsprozess einfließen und die Integrität von Quellen massiv beeinträchtigen können.
- Mittels Data-Mining und der gezielten Analyse großer unstrukturierter Datenmengen auf Basis von Deep-Learning erhalten (Medien-)Unternehmen entscheidungsrelevante Erkenntnisse und können z.B. Nutzerverhalten vorhersagen.
- Dies eröffnet eine Vielzahl an Möglichkeiten der Informations- und Meinungssteuerung einschließlich selbstlernender personalisierter Algorithmen und einem gezielten ggf. manipulativen Targeting, etwa auf Basis der Analyse bestimmter Persönlichkeitsmuster.
- Parallel beschleunigt die als AI-Stack bezeichnete KI-Wertschöpfungskette die MedienkonzenÂtration: getrieben durch den hohen Ressourcenverbrauch leistungsstarker KI-Systeme verschärft sich der Wettbewerb zuungunsten kleinerer Unternehmen und weniger marktkonformer Inhalte. Produktion, Distribution und Darstellung von Medieninhalten liegen vermehrt in einer Hand.
Die Funktionsweise von KI-Systemen hat großen Einfluss auf die Vielfalt von Informationen. Deshalb braucht es klare Regeln und redaktionelle Verantwortung – besonders, wenn KI-Suchmaschinen oder Chatbots Inhalte mit Einfluss auf die Meinungsbildung liefern. Meinungsvielfalt kann nur entstehen, wenn auch die zugrunde liegende Technologie offen und vielfältig gestaltet ist.