Fünf dpa-Guidelines für Künstliche Intelligenz
Künstliche Intelligenz

Offen, verantwortungsvoll und transparent – Die Guidelines der dpa für Künstliche Intelligenz

Die dpa ist den Fakten verpflichtet. Und ein Fakt ist, dass KI gekommen ist, um zu bleiben. Unsere Überzeugung bei dpa ist: Wir können den Risiken und Herausforderungen Künstlicher Intelligenz nur begegnen, wenn wir die vielen Chancen nutzen, die sich aus dem Einsatz dieser innovativen Werkzeuge ergeben. Der größte Fehler wäre, einfach weiterzumachen wie bisher. Daher haben wir uns rückversichert: Was sind unsere Werte und wofür stehen wir? Und wie passt das mit KI zusammen? Fünf Regeln haben wir uns bei dpa gegeben, die uns durch die kommende Zeit begleiten werden. Doch was ist KI eigentlich?

Künstliche Intelligenz war lange Zeit das, was es gerade noch nicht gab. So schwierig der Begriff zu definieren ist, so schwierig ist es, die wirkliche Bedeutung der Entwicklung und Innovationen rund um das Mega-Thema KI zu erkennen. Der Launch von ChatGPT hat im November 2022 tatsächlich die Welt verändert und binnen Tagen das zuvor eher Fachleuten bekannte Thema der Large Language Models (LLM) auf die große Bühne gebracht. Keine andere Webplattform hat in so kurzer Zeit so viele Nutzerinnen und Nutzer angelockt, wie ChatGPT. KI ist damit nicht mehr nur ein unpersönliches Schlagwort in abstrakten, häufig düsteren Zukunftsdebatten, sondern erleb- und probierbar für praktisch alle Menschen mit Zugriff auf das Internet. Und genau das dürfte auch die Größe des Epochenbruchs ausmachen.

Dabei ist eine Grundlage, dass LLM GPT-3 bereits seit 2020 zugänglich ist und auch für die kommerzielle Nutzung schon länger zur Verfügung steht. Doch ChatGPT hat es geschafft, Nutzungsszenarien in Medienhäusern, die zuvor eher theoretisch erörtert wurden, innerhalb eines Moments nutzbar und einsatzfähig erscheinen zu lassen. Spreadsheet- und Template-basierte Textautomaten wirken mit einem Schlag museumsreif. Der ChatBot hat bewiesen, dass er für viele Anwendungen in diesem Bereich inzwischen gut genug ist.

In Wahrheit gehören KI-Tools längst zum Alltag, von der Gesichtserkennung zur Sicherung des Smartphones, über Photoshop, hin zu Text-to-Speech-Programmen oder Speech-to-Text-Transkripten. Mit den meist Template-basierten Textautomaten, die wir alle unter dem Schlagwort Roboterjournalismus kennen, haben die neuen Möglichkeiten nicht mehr viel gemein. Eher schneller als gedacht werden KI-Anwendungen auf Basis von LLMs, aber auch andere, wie zum Beispiel Bildgeneratoren, die schöpferische Arbeit sehr grundlegend verändern.

Das betrifft in einem besonderen Maße die Medienbranche, denn hier gibt es viele Tätigkeiten, die zumindest KI-unterstützt schneller und effizienter darstellbar sein werden. Bei allen Risiken: Vor allem lohnt es sich für Medien, auf die Chancen zu schauen, denn die Entwicklung wird weitergehen. Wir sollten sie gestalten, statt sie zu verpassen. Sicherlich besteht auch Regulierungsbedarf, doch klar ist auch: Die Paste ist aus der Tube.

Die dpa ist überzeugt, dass KI und die Vielzahl der sich daraus entwickelnden Anwendungen die Arbeit (nicht nur) der Medien grundlegend verändern werden. Wir arbeiten seit mehr als vier Jahren mit KI-gestützten Systemen wie beispielsweise TEX zur Erstellung von Termineinträgen für unsere Planungsdatenbanken oder zur Unterstützung der Bildersuche. Doch die Geschwindigkeit, in der sich die kommenden Transformationen abspielen werden, ist eine große Aufgabe. Als Dienstleister für so gut wie alle Medien in Deutschland steht dpa nicht nur im Fokus, sondern muss ihre Services ständig den sich verändernden Kundenbedürfnissen anpassen.

Schon jetzt ist klar, dass es Bereiche gibt, in denen KI-Anwendungen helfen können, Synergien zu heben (Textvarianten, Personalisierung), Effizienz zu steigern (Vorprodukte) und Prozesse zu vereinfachen. Es wird Bereiche geben, in denen weniger Menschen gebraucht werden, aber genauso wird es welche geben, in denen anders ausgebildete Menschen benötigt werden, etwa Prompt- und Entwicklungsredakteure. Die dpa sieht daher vor allem Möglichkeiten.

Gerade unsere Fähigkeiten, Fakten zu überprüfen und mit hohen journalistischen Ansprüchen zu arbeiten, werden noch wichtiger werden, etwa in den Bereichen Faktenchecks oder bei der Bereitstellung von Trainingsdaten für KI-Anwendungen. Das kann auch dabei helfen, neue Kundengruppen für diese im Kern journalistischen Dienstleistungen zu finden, auch abseits vom klassischen Medienmarkt.

Daneben sehen wir bei dpa grundsätzlich erhebliche Risiken im Einsatz von KI, vor allem in der ungehindert möglichen Verbreitung von Desinformationen, Deepfakes etc., die eine Bedrohung für unsere demokratischen Gesellschaften sind und deren Rolle sich nochmal verstärken wird.

In nahezu allen westlichen Demokratien stecken Medien in einer tiefen Vertrauenskrise, die auch durch den massiven Anstieg von Desinformation und gezielten Attacken verstärkt wird.

In dieser Lage können es sich Medienunternehmen nicht leisten, wichtige technologische Trends zu verpassen, aber auch nicht, dabei Fehler zu machen. Falschinformationen, die sich aus eigenen KI-Anwendungen ableiten, sind eine ernste Bedrohung.

Aus unserer Sicht ist hier ein wichtiger Faktor der Mensch, der künftig das herausgehobene Qualitätsmerkmal journalistischer Arbeit sein muss. Das Siegel ist nicht „Made by KI“, sondern „Made by a Human“. Daran orientieren sich auch die Guidelines, die dpa sich gegeben hat, um den Umgang mit KI zu begleiten, ohne sich in einem Wald aus Regeln zu verlieren. Es gilt die Chancen zu nutzen und die Risiken zu kennen, um sie minimieren zu können.

Die 5 KI-Guidelines der dpa

  1. Die dpa setzt KI zu verschiedenen Zwecken ein und steht dem verstärkten Einsatz von KI aufgeschlossen gegenüber. KI wird helfen, unsere Arbeit besser und schneller zu machen – immer im Sinne unserer Kunden und unserer Produkte.
  2. Die dpa setzt KI nur unter menschlicher Aufsicht ein. Die letzte Entscheidung über den Einsatz von KI-basierten Produkten trifft ein Mensch. Wir achten die menschliche Autonomie und den Vorrang menschlicher Entscheidungen.
  3. Die dpa setzt nur rechtmäßige KI ein, die sich an geltendes Recht und gesetzliche Bestimmungen hält und die unseren ethischen Grundsätzen gerecht wird, also etwa der menschlichen Autonomie, Fairness und demokratischen Werten.
  4. Die dpa setzt KI ein, die technisch robust und sicher ist, um die Risiken für Fehler und Missbrauch zu minimieren. Dort, wo Inhalte ausschließlich durch KI erzeugt werden, machen wir dies transparent und erklärbar. Die Verantwortung für alle mit KI erzeugten Inhalte trägt stets ein Mensch.
  5. Die dpa ermuntert alle Mitarbeiterinnen und Mitarbeiter, sich offen und neugierig mit den Möglichkeiten von KI zu befassen, Tools zu testen und Vorschläge für die Nutzung in unseren Workflows zu machen. Entscheidend sind Transparenz, Offenheit und die Dokumentation.

Gerade KI wird nicht in Form von großen Tools in die Redaktionen Einzug halten, sondern die Revolution kommt in kleinen Paketen. Tools für Transkripte gehören bei uns seit langem zum Alltag, schon jetzt helfen Übersetzungsprogramme bei der täglichen Arbeit. Entscheidend sind die Mitarbeiterinnen und Mitabeiter, die vieles ausprobieren müssen, um die Mehrwerte nicht nur zu finden, sondern sinnvoll einzusetzen. Es braucht beides: Vorgaben, Vorschläge und Strategie, aber eben auch Machen, Probieren und Umsetzen.

 


 

English Version:

 

Open, responsible and transparent – dpa’s guidelines for artificial intelligence

dpa is committed to the facts. And one fact is that AI is here to stay. Our conviction at dpa is that we can only counter the risks and challenges of artificial intelligence if we take advantage of the many opportunities that arise from the use of these innovative tools. The biggest mistake would be to simply carry on as before. We have therefore reassured ourselves: What are our values and what do we stand for? And how does this fit in with AI? We have set ourselves five rules at dpa that will guide us through the coming period. But what is AI actually?

For a long time, artificial intelligence was something that did not yet exist. As difficult as the term is to define, it is just as difficult to recognize the real significance of the development and innovations surrounding the huge topic of AI. The launch of ChatGPT in November 2022 really did change the world and in a matter of days it propelled large language models (LLMs), previously known only to experts, into the public eye. No other web platform has attracted so many users in such a short space of time as ChatGPT. AI is therefore no longer just an impersonal buzzword in abstract, often gloomy debates about the future, but something that can be experienced and tried out by practically everyone with access to the internet. And that is probably what makes this epochal breakthrough so significant.

This is based on the fact that LLM GPT-3 has been available since 2020 and has also been available for commercial use for some time. However, ChatGPT has managed to make usage scenarios in media companies that had previously been discussed in more theoretical terms appear usable and operational in the blink of an eye. Spreadsheet and template-based text machines The ChatBot has now proven to be good enough for many applications in this area.

In reality, AI tools have long been part of everyday life, from facial recognition for smartphone security, to Photoshop, or text-to-speech programmes and speech-to-text transcripts. The new possibilities have little in common with the mostly template-based text machines that we all know under the buzzword of robot journalism. AI applications based on LLMs, but also others such as image generators, will fundamentally change creative work sooner than expected.

This particularly affects the media industry, as it includes many activities that will at very least be faster and more efficient with the help of AI. Despite all the risks: Above all, it is worthwhile for the media to look at the opportunities, because the development will continue. We should shape it instead of missing out on it. There is certainly a need for regulation, but it is also clear that you can’t put the toothpaste back in the tube.

dpa is convinced that AI and the multitude of applications deriving from it will fundamentally change the work of (not only) the media. We have been working for more than four years with AI-supported systems such as TEX to create appointment entries for our planning databases or to support image searches. But the speed at which the coming transformations will take place is a huge challenge. As a service provider for virtually all media in Germany, dpa is not only in the spotlight, but must constantly adapt its services to changing customer needs.

It is already clear that there are areas in which AI applications can help to leverage synergies (text variants, personalization), increase efficiency (preparatory work) and simplify processes. There will be areas in which fewer people are needed, but there will also be areas in which differently trained people are needed, such as prompt and development editors. dpa therefore sees opportunities above all.

Our ability to check facts and work to high journalistic standards will become ever more important, for example in the areas of fact-checking or providing training data for AI applications. This can also help us to find new customer groups for these essentially journalistic services, even outside of the traditional media market.

At dpa, we also see considerable risks in the use of AI, especially in the unhindered spread of disinformation, deepfakes, etc., which pose a threat to our democratic societies and whose role will increase even further.

In almost all Western democracies, the media are experiencing a deep crisis of confidence, which is also being exacerbated by the massive increase in disinformation and targeted attacks.

In this situation, media companies cannot afford to miss out on important technological trends, but neither can they afford to make mistakes. Misinformation derived from proprietary AI applications is a serious threat.

In our view, an important element here is the human factor, which must be the outstanding qualitative feature of journalistic work in future. The seal is not „Made by AI“, but „Made by a human“. The guidelines that dpa has set itself to accompany the use of AI without getting lost in a forest of rules are also based on this. The aim is to exploit the opportunities and know the risks in order to minimize them.

The dpa’s 5 AI guidelines

1. dpa uses AI for various purposes and is open to the increased use of AI. AI will help to make our work better and faster – always in the interests of our customers and our products.

2. dpa only uses AI under human supervision. The final decision on the use of AI-based products is made by a human being. We respect human autonomy and the primacy of human decisions.

3. dpa only uses lawful AI that complies with applicable laws and regulations and that meets our ethical principles, such as human autonomy, fairness and democratic values.

4. dpa uses AI that is technically robust and secure to minimize the risks of error and misuse. Where content is generated exclusively by AI, we make this transparent and explainable. The responsibility for all content generated with AI always lies with a person.

5. dpa encourages all employees to be open and curious about the possibilities of AI, to test tools and to make suggestions for their use in our workflows. Transparency, openness and documentation are crucial.

 

AI in particular will not find its way into editorial offices in the form of large tools, instead the revolution will come in small packages. Tools for transcripts have long been part of our everyday work, and translation programmes are already helping us with our daily work. The decisive factor are the employees, who have to try out many things in order not only to find the added value, but also to use it sensibly. It takes both: guidelines, suggestions and strategy, but also doing, trying and implementing.

 

 

Notizblock:

Twitter: @es_be_er
LinkedIn: Sebastian Raabe

6 Comments

You may also like