banner

Nachricht

Jul 11, 2023

Kann Anti

Dieser Artikel ist Teil des Leitfadens: Für Bildung hält ChatGPT Versprechen – und schafft Probleme.

Nach seiner Einführung im letzten Monat machte ChatGPT, der neueste von OpenAI veröffentlichte Chatbot, online die Runde.

Alex, ein Student im zweiten Jahr an einer Universität in Pittsburgh, begann etwa eine Woche nach seiner Veröffentlichung mit dem Chatbot zu spielen, nachdem er auf Twitter davon erfahren hatte. Innerhalb weniger Tage war er von der Qualität des dabei entstandenen Schreibens wirklich begeistert. Der Chatbot war gut, sagt er – wirklich gut. („Alex“ ist der Name, den diese Person EdSurge genannt hat. Er stimmte nur zu, anonym zu sprechen, aus Angst vor Konsequenzen für das Eingeständnis akademischer Unehrlichkeit.)

Er hatte den Chatbot ungefähr in der Abschlusswoche gefunden, als alle in großer Eile waren, ihre Arbeiten fertigzustellen. Die meisten Leute schienen daran interessiert zu sein, den Chatbot nach Witzen oder Geschichten zu fragen, sagt Alex, aber er war „sofort fasziniert von der Idee, ihn zum Verfassen einer Arbeit zu verwenden.“

Nachdem er es jedoch an einigen ihm zugewiesenen Aufsatzaufforderungen ausprobiert hatte, bemerkte er einige Probleme. Das Schreiben könnte umständlich sein. Es würden Phrasen wiederholt oder ungenaue Anführungszeichen eingefügt. Diese kleinen Dinge summierten sich und ließen die Schrift so aussehen, als ob sie nicht von einem Menschen stammte. Aber Alex fing an, den Text anzupassen und experimentierte damit, die Art der Aufforderungen, die er dem Chatbot fütterte, aufzuteilen und zu variieren. Es schien mir einen Teil der undankbaren Laufarbeit (oder, wie einige Professoren vielleicht argumentieren, die Arbeit) beim Schreiben von Essays abzunehmen, und erforderte nur ein wenig Vorarbeit und ein wenig Überarbeitung: „Man kann Arbeiten mindestens 30 Prozent schneller schreiben.“ er sagt.

Schließlich sagte er, dass die Papiere, die er und der Bot gemeinsam erstellten, die Plagiatsprüfung mit Leichtigkeit bestanden hätten. Er lobte den Chatbot vor seinen Freunden. „Ich war wie Jesus, der herumlief, das gute Wort predigte und den Menschen beibrachte, wie man es nutzt“, drückte er es aus.

Etwas Grundlegendes hatte sich verändert: „Mir war im wahrsten Sinne des Wortes nur schwindelig und ich habe gelacht und dachte: ‚Alter, sieh dir das an‘, und alles hat sich für immer verändert“, sagt er.

Er war nicht der Einzige, den er kannte, der die KI nutzte. Aber andere seien bei dem Verfahren weniger vorsichtig gewesen, stellte er fest. Sie vertrauen sehr auf algorithmisches Schreiben und geben Aufsätze ab, ohne sie vorher wirklich durchzugehen.

Als Finanzstudent witterte Alex ebenfalls eine Chance. Seine Taschen waren nicht gerade bündig. Also verkaufte Alex schon früh, bevor es sich durchsetzen konnte, eine Handvoll Zeitungen – er schätzt etwa fünf – für „ein paar hundert Dollar“. Kein schlechter Preis für ein paar Stunden Arbeit.

In den letzten Wochen gab es in der populären Presse eine Flut von Artikeln, in denen detailliert beschrieben wurde, wie Studenten ChatGPT zum Verfassen ihrer Arbeiten verwenden. Das Atlantic-Magazin formulierte die Frage deutlich: „Der College-Essay ist tot.“

Und das Tool stellt nicht nur für Englischlehrer eine Herausforderung dar. Der KI-Chatbot kann scheinbar auch Antworten auf einige Fragen zu Finanzen und Mathematik ausspucken.

Aber wie das Internet – das die Daten lieferte, auf denen der Chatbot trainiert wurde – kann die Ausgabe von ChatGPT heikel sein. Das bedeutet, dass die Aufsatzantworten, die es für Studenten liefert, oft Aussagen enthalten, die nicht sachlich korrekt sind, und manchmal werden Dinge einfach erfunden. Es schreibt auch rassenunempfindliche und frauenfeindliche Dinge.

Aber Alex‘ Geschichte zeigt, dass ein wenig menschliches Eingreifen solche Probleme beheben kann, was die Frage aufwirft, die sich viele Professoren stellen: Können Tools zur Plagiatserkennung diese KI-Kreationen erkennen?

Es stellt sich heraus, dass die Macher von TurnItIn, einem der am weitesten verbreiteten Tools zur Plagiatserkennung, nicht ins Schwitzen kommen. „Wir sind sehr zuversichtlich, dass eine Erkennung für die aktuelle Generation von KI-Schreibsystemen möglich ist“, sagt Eric Wang, Vizepräsident für KI des Unternehmens.

Plagiate seien auf dem Vormarsch, könnten aber theoretisch immer noch aufgedeckt werden, argumentiert er. Das liegt daran, dass maschinelles Schreiben im Gegensatz zum menschlichen Schreiben, das tendenziell eigenwillig ist, darauf ausgelegt ist, Wörter mit hoher Wahrscheinlichkeit zu verwenden, sagt Wang. Es fehlt einfach die menschliche Note.

Vereinfacht gesagt sind von Chatbots verfasste Aufsätze unglaublich vorhersehbar. Die Wörter, die die Maschine schreibt, sind Wörter, die Sie dort erwarten, wo Sie sie erwarten würden. Und das hinterlässt, sagt Wang, ein „statistisches Artefakt“, das man testen kann. Und das Unternehmen sagt, dass es Pädagogen irgendwann im nächsten Jahr mithilfe algorithmischer Tools wie ChatGPT dabei helfen kann, einige der Betrüger zu erkennen.

Unabhängig davon, ob Sie denken, dass es eine verfrühte Diagnose ist, den College-Aufsatz für tot zu erklären, oder nicht, sind die Bedenken eine Reaktion auf einen echten Trend.

Betrug ist der letzte Schrei.

Wenn Schüler aufgrund des beispiellosen Stresses und der Ungewissheit, in die sie geraten sind, erschöpft sind, scheinen sie eher versucht zu sein, Abkürzungen zu nehmen. Universitäten haben berichtet, dass sich Betrug seit Beginn der Pandemie in einigen Fällen verdoppelt oder sogar verdreifacht hat. Zum Beispiel: Im Schuljahr 2020–2021, in der Hitze der Pandemie, meldete die Virginia Commonwealth University 1.077 Fälle akademischen Fehlverhaltens, was einem Anstieg um mehr als das Dreifache entspricht.

Die Zahlen zeigen, dass Betrug dramatisch zugenommen hat, aber die tatsächlichen Zahlen könnten unter den Zahlen liegen, sagt Derek Newton, der „The Cheat Sheet“ herausgibt, einen Newsletter, der sich auf akademischen Betrug konzentriert. Die Leute sträuben sich davor, Betrug zuzugeben, sagt Newton. Die meisten akademischen Integritätsstudien stützen sich auf Selbstauskünfte, und es könne schwierig sein, zu beweisen, dass jemand betrügt, fügt er hinzu. Aber er sagt, es sei klar, dass Betrug „explodiert“ sei.

Was verursacht das? Da die Hochschulen bestrebt waren, mehr Studenten zu unterrichten, haben sie sich Online-Programmen zugewandt. Das schafft gute Voraussetzungen für Betrug, weil es die Menge an menschlichen Interaktionen verringert und das Gefühl der Anonymität unter den Schülern erhöht, sagt Newton. Auch die Nutzung von „Hausaufgaben-Hilfeseiten“ – Unternehmen, die On-Demand-Antworten und Orte für Schüler zum Teilen von Prüfungsantworten anbieten – nimmt zu, was seiner Meinung nach zu einem Ausmaß an Betrug führt.

Das Problem? Nach Newtons Ansicht lernen die Studenten nicht so viel, und der Wert, den Colleges den Studenten bieten sollten, ist nicht vorhanden. Und weil es selten vorkomme, dass Studierende auch nur ein einziges Mal schummeln, führt die Zunahme des Betrügens zu einer Verschlechterung der Verantwortlichkeit und Qualität in den Berufen, für die Hochschulen Studierende ausbilden (einschließlich in Bereichen wie dem Ingenieurwesen). „Ich sehe dieses Problem also in dreifacher Hinsicht als schlimm an: Es ist schlecht für die Studierenden. Das ist schlecht für die Schulen. Und es ist schlecht für uns alle.“

Alex, der Student im zweiten Jahr in Pittsburgh, sieht die Beziehung zwischen Chatbot und Schüler etwas anders.

Er sagt, es handele sich um eine „symbiotische Beziehung“, bei der die Maschine von Ihnen lernt, während Sie sie nutzen. Zumindest so, wie er es macht. „Das trägt zu seiner Originalität bei“, sagt er, weil es die Eigenheiten seines Benutzers lernt.

Es stellt sich aber auch die Frage, was Originalität ausmacht.

Er argumentiert nicht, dass das, was er tut, richtig ist. „Offensichtlich ist das Ganze unethisch“, gibt er zu. „Ich sage Ihnen jetzt, dass ich akademische Unehrlichkeit begangen habe.“

Er argumentiert jedoch, dass Studierende seit langem Tools wie Grammarly verwenden, die konkrete Vorschläge zur Überarbeitung von Prosa bieten. Und viele Studierende nutzen bereits das Internet, um Quellenmaterial für ihre Aufsätze zu finden. Für ihn befinden wir uns einfach in einer neuen Realität, mit der sich die Wissenschaft auseinandersetzen muss.

Und Alex vermutet, dass sich unter den Studenten schnell herumspricht, wie man ChatGPT zum Verfassen von Arbeiten nutzen kann. „Es gibt wirklich keine Möglichkeit, es zu stoppen“, argumentiert er.

Sogar einige Hochschulleiter scheinen bereit zu sein, ihre Lehrmethoden zu überarbeiten, um den Herausforderungen der KI gerecht zu werden.

„Der Druck, den #ChatGPT auf Schulen und Pädagogen ausübt, macht mir Mut“, twitterte Bernard Bull, Präsident der Concordia University Nebraska, diese Woche. „Als jemand, der sich für die Humanisierung und Entmechanisierung der #Bildung ausspricht, ist es eine faszinierende Wendung, dass eine technologische Entwicklung wie diese uns durchaus zu tieferen menschlichen Ansätzen führen könnte.“

Daniel Mollenkamp (@dtmollenkamp) ist Reporter für EdSurge. Er ist unter [email protected] erreichbar.

AKTIE