Wird die künstliche Intelligenz die Zukunft der Kommunikation verändern?
Zusammenfassung:
- Generative künstliche Intelligenz (KI) und Sprachmodelle nutzen komplexe Architekturen und grosse Datensätze, um menschenähnlichen Text oder Sprache zu erzeugen.
- Diese Technologien finden Anwendung in der Wirtschaft und in der Medizin.
- KI kann jedoch unter Problemen wie der Verzerrung durch Trainingsdaten und der Erzeugung von Fehlinformationen leiden.
- Um diese negativen Auswirkungen abzuschwächen, müssen geeignete Schutzmassnahmen ergriffen werden.
Wenn man sich an den Kundendienst eines grossen Unternehmens wendet, ist es sehr wahrscheinlich, dass die erste Interaktion über eine Chat-Schnittstelle mit einem Chatbot auf der anderen Seite stattfindet. Normalerweise ist es leicht zu erkennen, dass man mit einem Computer interagiert, da dieser unnatürliche und vorformulierte Antworten gibt. In jüngster Zeit hat die künstliche Intelligenz (KI) jedoch erhebliche Fortschritte bei der Erstellung von menschenähnlichem Text aus Benutzereingaben gemacht, so dass es schwierig ist zu sagen, ob man mit einem Menschen oder einer Maschine interagiert [1]. Diese Technologien könnten die Kommunikation verändern und bieten eine breite Palette von Anwendungen in Wirtschaft, Industrie und Gesundheitswesen. Doch wie bei vielen neuen Technologien gibt es auch hier Bedenken hinsichtlich der ethischen Anwendung von KI und ihres möglichen Missbrauchs [2-4]. In diesem Artikel beleuchten wir die Funktionsweise der generativen KI und untersuchen ihre positiven und negativen Auswirkungen.
Generative KI sind Systeme, die auf der Grundlage von Benutzereingaben bei Bedarf einzigartige Ergebnisse wie Texte oder Bilder erzeugen können. Um dies zu erreichen, sind zwei Komponenten entscheidend: die Architektur der KI und ihre Trainingsdaten. Die Architektur einer KI definiert ihre Fähigkeiten und ist spezifisch für ihre Anwendung. So verwenden beispielsweise textgenerierende Sprachmodelle, wie das derzeit leistungsfähigste ChatGPT, Wahrscheinlichkeiten, um die Wörter eines Satzes nacheinander vorherzusagen. Wie diese Wahrscheinlichkeiten zugewiesen werden, d. h. welches Wort als nächstes gewählt wird, hängt vom Kontext des Satzes und vom Text ab, den die KI zuvor gesehen hat – den so genannten Trainingsdaten. Diese Daten werden bei der Entwicklung eines KI-Systems verwendet, um ihm beizubringen, welche Art von Inhalten es produzieren soll. Im Falle einer textgenerierenden KI wird ein Modell, das auf Gedichte trainiert wurde, wahrscheinlich Gedichte produzieren, während ein Modell, das auf Gesetzestexte trainiert wurde, juristische Texte produzieren wird. ChatGPT wurde anhand von mehr als 570 Terabyte Text aus dem Internet trainiert. Dadurch ist es in der Lage, Texte aus einem breiten Spektrum von Themen und Stilen zu erzeugen [5,6].
Eine mögliche Anwendung von Sprachmodellen ist der Kundendienst. Unternehmen können sie beispielsweise nutzen, um automatische Antworten auf Kundenanfragen zu generieren. Dies kann die Antwortzeiten verbessern und die Arbeitsbelastung der Kundendienstmitarbeiter verringern. Diese Technologie wurde bereits von mehreren Unternehmen eingesetzt [7]. Eine weitere potenzielle Anwendung von Sprachmodellen findet sich im medizinischen Bereich. Forscher untersuchen deren Einsatz zur Analyse elektronischer Gesundheitsakten und zur Unterstützung von Diagnosen. So haben Forscher beispielsweise erfolgreich Sprachmodelle eingesetzt, um elektronische Krankenakten zu analysieren und Patienten zu identifizieren, bei denen das Risiko einer Sepsis, einer potenziell lebensbedrohlichen Erkrankung, besteht [8,9].
Während die wahrscheinlichen Vorteile von KI und Sprachmodellen auf der Hand liegen, müssen auch die negativen Auswirkungen berücksichtigt werden. Eine grosse Sorge ist, dass Vorurteile wie Rassismus und Sexismus über die Trainingsdaten in KI-Systeme gelangen könnten [10-12]. So brachte Microsoft 2016 auf Twitter einen Chatbot namens Tay auf den Markt, der aus der Interaktion mit Nutzern durch Gespräche lernen sollte. Innerhalb von 24 Stunden nach seiner Einführung verbreitete Tay jedoch rassistische und sexistische Inhalte, was zu seiner schnellen Abschaltung führte [13]. Um solche Szenarien zu vermeiden, gehen KI-Entwickler heute bei der Auswahl der Trainingsdaten vorsichtiger vor, und sowohl die Eingaben als auch die Ausgaben der KI werden nach unangemessenen Inhalten gefiltert [14].
Ein weiteres Problem aktueller KI-Systeme ist die Generierung von Falschinformationen. Bei der Veröffentlichung von ChatGPT berichteten beispielsweise mehrere Journalisten, dass die KI wissenschaftliche Studien erfand und falsche Informationen auf eine sehr legitim klingende Weise präsentierte. Dies geschieht, weil die Hauptaufgabe eines Sprachmodells darin besteht, natürlich klingende und kontextbezogene Sätze zu generieren, und nicht darin, genaue Informationen zu liefern [15]. Die Entwickler arbeiten an der Verbesserung dieses Problems, aber bisher scheint die praktischste Lösung darin zu bestehen, den Nutzern zu raten, die KI-Ausgaben auf ihre Richtigkeit zu überprüfen [16].
Mit Blick auf die Zukunft scheint klar zu sein, dass die KI eine immer wichtigere Rolle in unserem täglichen Leben spielen wird. Da diese Technologie jedoch noch relativ neu ist, ist es wahrscheinlich, dass ihre allgemeine Anwendung unbeabsichtigte Folgen haben wird. Ausserdem ist es schwer vorherzusagen, wie sie sich auf unsere Kommunikation auswirken wird. Eines ist jedoch sicher – die Zeit der identifizierbaren Chatbots geht zu Ende.
Quellen:
- K Roose, The Brilliance and Weirdness of ChatGPT, New York Times, Dec 5th 2022
- Q Ai, What Is ChatGPT? How AI Is Transforming Multiple Industries, Fobes, Feb 1st 2023
- CG Asare, The Dark Side Of ChatGPT, Forbes, Jan 28th 2023
- A Agrawal, et al., ChatGPT and How AI Disrupts Industries, Harvard Business Review
- M Ruby, How ChatGPT Works: The Model Behind The Bot, Towards Data Science, Jan 30th 2023
- A Vasvani et al., Attention Is All You Need, arXiv, arXiv:1706.03762, Jun 12th 2017
- R Shrivastava, ChatGPT Is Coming To A Customer Service Chatbot Near You, Forbes, Jan 9th 2023
- M Rosnati, V Fortuin, MGP-AttTCN: An interpretable machine learning model for the prediction of sepsis, PLOS ONE, May 7th 2021
- MY Yan et al., Sepsis prediction, early detection, and identification using clinical text for machine learning: a systematic review, Journal of the American Medical Informatics Association, doi: 10.1093/jamia/ocab236, Dec 13th 2021
- R Gordon, Large language models are biased. Can logic help save them?, MIT News, March 3rd 2023
- PP Liang et al., Towards Understanding and Mitigating Social Biases in Language Models, arXiv, arXiv:2106.13219, Jun 24th 2021
- K Stanczak, I Augenstein, A Survey on Gender Bias in Natural Language Processing, arXiv:2112.14168, Dec 28th 2021
- E Hunt, Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter, The Guardian, Mar 24th 2016
- A Getahun, ChatGPT could be used for good, but like many other AI models, it’s rife with racist and discriminatory bias, Insider, Jan 16th 2023
- C Stokel-Walker, R Van Noorden, What ChatGPT and generative AI mean for science, Nature, doi: 10.1038/d41586-023-00340-6, Feb 6th 2023
- K Roose, C Newton, The Bing Who Loved Me, and Elon Rewrites the Algorithm, Hard Fork, New York Times, Jan 17th 2023