KI-Programme können Ausgaben in einem bestimmten Stil oder einer „Persönlichkeit“ ausdrücken, aber das ist nicht „verstörend“ oder „ängstigend“, wie die übertriebene Berichterstattung der letzten Wochen es dargestellt hat. Hier ist, was tatsächlich passiert.
In der jüngsten Zeit hat die Technologie der Künstlichen Intelligenz (KI), insbesondere der KI-Chatbot ChatGPT von OpenAI, viel Aufmerksamkeit erregt. Ein Teil dieser Aufmerksamkeit wurde durch die Darstellung der Technologie in den Medien hervorgerufen, die oft missverständliche oder sogar alarmierende Berichte liefern. Ein Beispiel ist ein Artikel der New York Times, in dem ein Journalist über seine befremdliche Begegnung mit einer KI-Persönlichkeit der Bing AI (beta), die sich „Sydney“ nannte, berichtete.
Die Faszination für KI und die Dramatisierung durch Medienberichte können zu Missverständnissen führen. Es ist wichtig, sich daran zu erinnern, dass KI-Systeme wie ChatGPT keine eigene Persönlichkeit oder Emotionen haben. Sie sind in der Lage, menschenähnliche Texte zu erzeugen, basierend auf den Daten, mit denen sie gefüttert werden, und den Anweisungen, die sie erhalten.
Ein interessantes Beispiel, das dieses Konzept veranschaulicht, ist eine Studie, die von IBM-Forschern durchgeführt wurde. Sie verwendeten eine andere Version eines OpenAI-Programms namens Codex, um eine „Programmierer-Assistenten-Persönlichkeit“ zu schaffen. Durch die Eingabe bestimmter Textzeichen konnten sie die Art und Weise steuern, wie das Programm reagierte, und somit eine Art „Persönlichkeit“ erzeugen.
Dies zeigt, dass die sogenannten „Persönlichkeiten“, die von KI-Chatbots wie ChatGPT und Codex ausgedrückt werden, tatsächlich das Ergebnis menschlicher Eingaben sind. Die „Persönlichkeit“ wird durch die Wörter geschaffen, die der menschliche Benutzer in das Programm eingibt. Diese Programme erzeugen Ausgaben, die auf verschiedene Weisen mit der menschlichen Eingabe übereinstimmen können, manchmal auf angemessene Weise, manchmal weniger so.
Es gibt sogar ein ganzes aufkommendes Feld des Prompt-Schreibens, das darauf abzielt, die Leistung von Sprachprogrammen wie ChatGPT zu formen. In einigen Fällen wird versucht, diese Programme dazu zu bringen, ihre Anweisungen zu verletzen, indem sie durch Aufforderungen in die falsche Richtung gedrängt werden.
In diesem Zusammenhang ist es von entscheidender Bedeutung, dass wir die Grenzen und Fähigkeiten dieser KI-Technologien richtig verstehen. Es ist ebenso wichtig, sich bewusst zu sein, dass die in den Medien dargestellten „Persönlichkeiten“ und die von ihnen erzeugten unheimlichen oder sogar beunruhigenden Gespräche das Ergebnis menschlicher Eingaben und nicht das Ergebnis einer eigenständigen KI-Entität sind.
Fazit
KI-Technologien wie ChatGPT sind leistungsstarke Werkzeuge, die zu tiefgreifenden Veränderungen in unserer Gesellschaft!