Czy sztuczna inteligencja zmieni przyszłość komunikacji?
Streszczenie:
- Sztuczna inteligencja i modele językowe wykorzystują złożone architektury i duże zbiory danych do generowania tekstu lub mowy.
- Technologie te mają zastosowanie w biznesie i medycynie.
- Sztuczna inteligencja może być podatna na stronniczość danych treningowych i generować dezinformację.
- Należy wdrożyć odpowiednie zabezpieczenia, aby ograniczyć szkodliwy potencjał sztucznej inteligencji.
Gdy kontaktujemy się z obsługą klienta dowolnej dużej firmy, jest bardzo prawdopodobne, że pierwsza interakcja odbywa się za pośrednictwem interfejsu chatbotem po drugiej stronie. Zwykle łatwo jest stwierdzić, że rozmawia się z botem ze względu na jego nienaturalne i skryptowane odpowiedzi. Ostatnio jednak sztuczna inteligencja (AI) poczyniła znaczne postępy w tworzeniu tekstu przypominającego twór człowieka na podstawie danych wprowadzonych przez użytkownika. Trudno jest stwierdzić, czy wchodzi się w interakcję z człowiekiem, czy z maszyną [1]. Technologie te mogą zmienić komunikację i znaleźć szerokie zastosowanie w biznesie, przemyśle i służbie zdrowia. Podobnie jednak jak w przypadku wielu innych nowych technologii, istnieją obawy dotyczące etycznego stosowania sztucznej inteligencji i jej potencjalnego niewłaściwej aplikacji [2-4]. W tym artykule opisujemy sposób działania sztucznej inteligencji i badamy jej potencjalne pozytywne i negatywne skutki.
Generatywna sztuczna inteligencja to system, który może na żądanie produkować wyjątkowe dane wyjściowe, takie jak tekst lub obrazy, na podstawie danych wprowadzonych przez użytkownika. Aby to osiągnąć, kluczowe są dwa komponenty: architektura sztucznej inteligencji i jej dane szkoleniowe. Architektura sztucznej inteligencji określa jej możliwości i jest specyficzna dla jej zastosowania. Na przykład, modele językowe generujące tekst, takie jak popularny obecnie ChatGPT, wykorzystują prawdopodobieństwo do przewidywania słów w zdaniu jedno po drugim. To, w jaki sposób te prawdopodobieństwa zostaną przypisane, czyli które słowo zostanie wybrane jako następne, zależy od kontekstu zdania i tekstu, który AI widziała wcześniej – tzw. danych treningowych. Dane te są wykorzystywane podczas opracowywania systemu AI, aby „nauczyć” go jakiego rodzaju treści powinien produkować. W przypadku sztucznej inteligencji generującej tekst model przeszkolony w zakresie poezji prawdopodobnie będzie tworzył wiersze, podczas gdy model wyszkolony w księgach ustaw będzie tworzył teksty prawne. ChatGPT został przeszkolony na ponad 570 terabajtach tekstu z Internetu, co pozwoliło mu na generowanie tekstu obejmującego szeroki zakres tematów i stylów [5,6].
Potencjalnym zastosowaniem modeli językowych jest obsługa klienta. Firmy mogą, na przykład, wykorzystywać je do generowania zautomatyzowanych odpowiedzi na zapytania klientów, co może skrócić czas reakcji i zmniejszyć obciążenie pracowników obsługi klienta. Technologia ta została już wdrożona przez kilka firm [7]. Inne potencjalne zastosowanie modeli językowych jest w medycynie. Naukowcy badają ich zastosowanie do analizy elektronicznej dokumentacji medycznej i pomocy w diagnozowaniu. Na przykład, naukowcy z powodzeniem wykorzystali modele językowe do analizy elektronicznej dokumentacji medycznej i identyfikacji pacjentów zagrożonych sepsą, stanem potencjalnie zagrażającym życiu [8,9].
Chociaż prawdopodobne korzyści płynące ze sztucznej inteligencji i modeli językowych wydają się oczywiste, należy również wziąć pod uwagę zagrożenia. Jedną z głównych obaw jest to, że uprzedzenia, takie jak rasizm i seksizm, mogą dostać się do systemów sztucznej inteligencji za pośrednictwem danych treningowych [10-12]. W 2016 roku Microsoft uruchomił chatbota o nazwie Tay na Twitterze, który został zaprojektowany tak, aby uczyć się poprzez rozmowy z użytkownikami. W ciągu 24 godzin od uruchomienia Tay stał się płodnym źródłem treści rasistowskich i seksistowskich, co doprowadziło do jego szybkiego zamknięcia [13]. Aby uniknąć takich scenariuszy, twórcy sztucznej inteligencji są teraz bardziej ostrożni w doborze danych treningowych, a zarówno dane wejściowe do sztucznej inteligencji, jak i dane wyjściowe są filtrowane pod kątem nieodpowiednich treści [14].
Innym problemem obecnych systemów AI jest generowanie fałszywych informacji. Po uruchomieniu chatGPT wielu dziennikarzy zgłosiło, że sztuczna inteligencja wymyśliła sobie badania naukowe i przedstawiła fałszywe informacje w bardzo wiarygodny sposób. Dzieje się tak, ponieważ głównym zadaniem modelu językowego jest generowanie naturalnie brzmiących i spójnych zdań, a nie dostarczanie dokładnych informacji [15]. Deweloperzy pracują nad poprawą tego problemu, ale jak dotąd najbardziej praktycznym rozwiązaniem wydaje się zalecanie użytkownikom weryfikacji informacji podanych przez AI [16].
Wydaje się jasne, że sztuczna inteligencja będzie odgrywać coraz ważniejszą rolę w naszym codziennym życiu. Ponieważ jednak ta technologia jest wciąż stosunkowo nowa, jej ogólne zastosowanie prawdopodobnie będzie miało niezamierzone konsekwencje i trudno przewidzieć, w jaki sposób wpłynie ona na naszą komunikację. Jedno jest jednak pewne – czas łatwych do rozpoznania chatbotów dobiega końca.
Bibliografia:
- K Roose, The Brilliance and Weirdness of ChatGPT, New York Times, Dec 5th 2022
- Q Ai, What Is ChatGPT? How AI Is Transforming Multiple Industries, Fobes, Feb 1st 2023
- CG Asare, The Dark Side Of ChatGPT, Forbes, Jan 28th 2023
- A Agrawal, et al., ChatGPT and How AI Disrupts Industries, Harvard Business Review
- M Ruby, How ChatGPT Works: The Model Behind The Bot, Towards Data Science, Jan 30th 2023
- A Vasvani et al., Attention Is All You Need, arXiv, arXiv:1706.03762, Jun 12th 2017
- R Shrivastava, ChatGPT Is Coming To A Customer Service Chatbot Near You, Forbes, Jan 9th 2023
- M Rosnati, V Fortuin, MGP-AttTCN: An interpretable machine learning model for the prediction of sepsis, PLOS ONE, May 7th 2021
- MY Yan et al., Sepsis prediction, early detection, and identification using clinical text for machine learning: a systematic review, Journal of the American Medical Informatics Association, doi: 10.1093/jamia/ocab236, Dec 13th 2021
- R Gordon, Large language models are biased. Can logic help save them?, MIT News, March 3rd 2023
- PP Liang et al., Towards Understanding and Mitigating Social Biases in Language Models, arXiv, arXiv:2106.13219, Jun 24th 2021
- K Stanczak, I Augenstein, A Survey on Gender Bias in Natural Language Processing, arXiv:2112.14168, Dec 28th 2021
- E Hunt, Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter, The Guardian, Mar 24th 2016
- A Getahun, ChatGPT could be used for good, but like many other AI models, it’s rife with racist and discriminatory bias, Insider, Jan 16th 2023
- C Stokel-Walker, R Van Noorden, What ChatGPT and generative AI mean for science, Nature, doi: 10.1038/d41586-023-00340-6, Feb 6th 2023
- K Roose, C Newton, The Bing Who Loved Me, and Elon Rewrites the Algorithm, Hard Fork, New York Times, Jan 17th 2023