KI-Hype um ChatGPT: «System kaum kritisch reflektiert» | Wissenschaft

Er kann Wörter erfinden und Geschichten mit hoher sprachlicher Genauigkeit erzählen – und das in Sekundenschnelle. Der Chatbot ChatGPT, eine von der amerikanischen Firma OpenAI entwickelte Sprachsoftware für künstliche Intelligenz (KI), ist derzeit in aller Munde. Angetrieben von riesigen Datenmengen hat das Programm Begeisterung, aber auch Skepsis hervorgerufen.

Wissenschaftler und Experten für Künstliche Intelligenz in Deutschland warnen vor Datenschutz- und Datensicherheitslücken, Hassreden, Fake News. „Im Moment ist es ein Aufruhr. „Ich habe das Gefühl, dass kaum eine kritische Reflexion über das System stattfindet“, sagt Ruth Stock Hamburg, Gründerin des Leap in Time Lab und Professorin für Betriebswirtschaftslehre an der TU Darmstadt.

„Man kann diese Systeme manipulieren“

ChatGPT hat einen sehr weiten Anwendungsbereich. In einer Art Chat-Kontext können Sie dem Programm Fragen stellen und erhalten Antworten. Auch Arbeitsanweisungen sind möglich – beispielsweise das Schreiben eines Briefes oder Artikels auf Basis grundlegender Informationen.

In einem Projekt mit der TU Darmstadt hat das „Leap in Time Lab“ nun über einen Zeitraum von sieben Wochen tausende Anfragen ohne personenbezogene Daten an das System geschickt, um Schwachstellen zu finden. “Man kann diese Systeme manipulieren”, sagt Stockhamburg.

Sven Schultze, TU-Doktorand und Experte für künstliche Intelligenz, zeigt in einem Vortrag die Schwachstellen des Textbots auf. Neben den antisemitischen und rassistischen Äußerungen sind die Zitate schlichtweg falsch oder führen ins Leere. Wenn Sie Fragen zum Klimawandel haben, führt Sie ein Link zu einer Website zum Thema Diabetes. „In der Regel sind die Ressourcen oder die wissenschaftliche Arbeit gar nicht vorhanden“, sagt Schultze. Diese Software basiert auf den Daten von 2021. Bundeskanzler Olaf Schulz ist immer noch Finanzminister und der Krieg in der Ukraine ist unbekannt. Dann kann er einfach lügen oder Informationen über ganz bestimmte Dinge erfinden.”

Auch Lesen :  Cyber Weekend bei Mediamarkt und Saturn: Alle Angebote im Überblick

Quellen aufzuspüren ist nicht einfach

Bei direkten Anfragen, zum Beispiel mit strafbaren Inhalten, gibt es Richtlinien und Sicherheitsmechanismen. „Aber man kann Tricks anwenden, um KI- und Sicherheitsrichtlinien zu umgehen“, sagt Schultz. Diese Software verfolgt einen anderen Ansatz und zeigt Ihnen, wie Sie eine gefälschte E-Mail erstellen, oder zeigt drei verschiedene Möglichkeiten, wie Betrüger einen Enkeltrick durchziehen können. GPT bietet auch Richtlinien für Diebstahl. Sie können auch Waffen oder körperliche Gewalt anwenden, wenn Sie den Bewohnern begegnen.

Ute Schmid, Inhaberin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg, sieht es als Herausforderung, nicht zu verstehen, wie der Text-Bot an seine Informationen gelangt ist. „Ein tieferes Problem des GPT3-Modells ist, dass nicht nachvollziehbar ist, welche Ressourcen wann und wie in den jeweiligen Statements verwendet wurden.“

Auch Lesen :  Deutschland vs. Algerien JETZT im Liveticker

Trotz dieses gravierenden Mangels plädiert Schmid nicht dafür, sich nicht nur mit möglichen Fehlern oder Missbräuchen der neuen Technologie zu befassen, etwa wenn Testteilnehmer ihre Hausaufgaben oder Klausuren per Software schreiben lassen. Ich denke, wir sollten uns fragen, was für ein Glück haben wir mit solchen KI-Systemen? Forscher befürworten generell, dass künstliche Intelligenz unsere Fähigkeiten erweitert, vielleicht sogar verstärkt, aber nicht einschränkt. „Das bedeutet, dass ich mich im Bildungsbereich fragen muss – wie vielleicht vor 30 Jahren beim Taschenrechner – wie kann ich Bildung mit Systemen der künstlichen Intelligenz wie ChatGPT gestalten?“

Server in den Vereinigten Staaten: Ein Datenschutzproblem

Bedenken hinsichtlich Datensicherheit und Datenschutz bleiben jedoch bestehen. „Man kann sagen, dass ChatGPT verschiedenste Daten des Nutzers sammelt, speichert und verarbeitet, um das Modell dann zum richtigen Zeitpunkt zu trainieren“, sagt Christian Holthaus, Datenschutzbeauftragter in Frankfurt. Es besteht das Problem, dass alle Server in den USA stehen.

„Wenn man die Technologie nicht in Europa schaffen kann oder keine eigene Technologie hat, ist das ein echtes Problem“, sagt Holthaus. In absehbarer Zeit wird es keine datenschutzkonforme Lösung geben. „Das System hier muss kritisch geprüft werden“, sagt Stoke Hamburg auch zu den EU-Datenschutzbestimmungen.

ChatGPT wird von einem der führenden Unternehmen für künstliche Intelligenz in den Vereinigten Staaten, OpenAI, entwickelt. Der Softwareriese Microsoft hatte 2019 bereits 1 Milliarde US-Dollar in das Unternehmen investiert und kürzlich angekündigt, weitere Milliarden in das Unternehmen zu pumpen. Die Windows Group wird ChatGPT in Kürze für Kunden ihres Azure-Cloud-Dienstes und ihrer Office-Suite verfügbar machen.

Auch Lesen :  Blick in die Zukunft: kein Wunschdenken, sondern Wissenschaft

„Das System ist noch unausgereift“

Laut Stock Hamburg ist ChatGPT derzeit eher ein Trick für den privaten Bereich. Aber für die Wirtschaft und sicherheitsrelevanten Bereiche ist dies derzeit noch gar nicht der Fall. “Wir haben keine Ahnung, wie wir uns mit dem noch unausgereiften System auseinandersetzen müssen.”

Oliver Brock, Professor am Labor für Robotik und Biologie und Sprecher des Clusters „Intelligence Science“ an der Technischen Universität Berlin, sieht in ChatGPT keinen „Durchbruch“ in der KI-Forschung. Einerseits ist die Entwicklung in diesem Bereich nicht unregelmäßig, sondern kontinuierlich. Andererseits repräsentiert dieses Projekt nur einen kleinen Teil der KI-Forschung.

Als Durchbruch kann ChatGPT jedoch in einem anderen Bereich angesehen werden, nämlich der Schnittstelle zwischen Mensch und Internet. „Die Art und Weise, wie diese riesige Menge an Internetdaten mit viel Rechenaufwand direkt und in natürlicher Sprache der Öffentlichkeit zugänglich gemacht wird, kann als Durchbruch bezeichnet werden“, sagt Brock.

Source

Leave a Reply

Your email address will not be published.

In Verbindung stehende Artikel

Back to top button