Grundlegende Überlegungen zur Auseinandersetzung mit den Möglichkeiten von KI
HeimHeim > Nachricht > Grundlegende Überlegungen zur Auseinandersetzung mit den Möglichkeiten von KI

Grundlegende Überlegungen zur Auseinandersetzung mit den Möglichkeiten von KI

Aug 04, 2023

Die Einführung des großen Sprachmodells für künstliche Intelligenz (KI), ChatGPT, stieß sowohl auf Begeisterung („Wow! Dieses Tool kann genauso gut schreiben wie Menschen“) als auch auf Angst („Wow… dieses Tool kann genauso gut schreiben wie Menschen“).

ChatGPT war nur das erste einer Welle neuer KI-Tools, die die menschliche Kommunikation per Text nachahmen sollten. Seit der Einführung von ChatGPT im November 2022 haben neue KI-Chatbots ihr Debüt gegeben, darunter Googles Bard und ChatGPT für Microsoft Bing, und es sind neue generative KI-Tools entstanden, die GPT-Technologie nutzen, wie etwa Chat with any PDF. Darüber hinaus wurde ChatGPT fortschrittlicher – von der Verwendung von GPT-3 auf GPT-3.5 für die kostenlose Version und GPT-4 für Premium-Benutzer.

Mit zunehmendem Zugang zu verschiedenen Arten von KI-Chatbots und zunehmenden Fortschritten in der KI-Technologie ist „die Verhinderung von Betrug durch Studierende durch KI“ ganz oben auf der Liste der Anliegen der Fakultät für 2023 gelandet (Lucariello, 2023). Sollte ChatGPT im Unterricht verboten werden oder sollte man seine Nutzung fördern? Sollten Sie Ihre Lehrplanerklärung zur akademischen Integrität neu gestalten oder reicht Ihre aktuelle aus? Sollten Sie die Art und Weise, wie Sie Prüfungen und Designaufgaben abhalten, ändern?

Wenn Sie sich mit der Rolle auseinandersetzen, die KI bei der Unterstützung von Schülern beim Betrügen spielt, sollten Sie die folgenden sechs wichtigen Punkte im Hinterkopf behalten:

Im folgenden Abschnitt werde ich jeden dieser Punkte diskutieren.

Wenn eine neue Technologie auf den Markt kommt, die die Norm zu stören droht, kommt es manchmal zu einer reflexartigen Reaktion, die zu einem völligen Verbot der Technologie führt. Werfen Sie einfach einen Blick auf den Artikel „Hier sind die Schulen und Hochschulen, die die Verwendung von ChatGPT wegen Plagiats- und Fehlinformationsängsten verboten haben“ (Nolan, 2023), und Sie werden mehrere US-amerikanische K-12-Schulbezirke, internationale Universitäten usw. finden sogar ganze Gerichtsbarkeiten in Australien, die die Verwendung von ChatGPT nach seinem Debüt schnell verboten haben.

Ein Verbot von KI-Chatbots „birgt jedoch das Risiko, dass die Kluft zwischen denen, die die Leistungsfähigkeit dieser Technologie nutzen können, und denen, die das nicht können, größer wird, was letztendlich die Bildungs- und Karriereaussichten der Studierenden beeinträchtigt“ (Canales, 2023, Abs. 1). ChatGPT-, GPT-3- und GPT-4-Technologie werden bereits in mehrere Karrieren integriert, von der Rechtswissenschaft (z. B. „OpenAI-gestütztes Startup bringt Chatbot-Technologie in die erste große Anwaltskanzlei“) bis hin zur Immobilienbranche („Immobilienmakler sagen, dass sie es können“). „Ich kann mir nicht vorstellen, jetzt ohne ChatGPT zu arbeiten“). Politiker nutzen ChatGPT, um Gesetzentwürfe zu verfassen (z. B. „KI hat einen Gesetzentwurf zur Regulierung von KI geschrieben. Jetzt möchte der Abgeordnete Ted Lieu, dass der Kongress ihn verabschiedet“). Das Democratic National Committee kam zu dem Schluss, dass die Verwendung von KI-generierten Inhalten bei der Spendenbeschaffung genauso gute, manchmal sogar bessere Ergebnisse lieferte als von Menschen erstellte Inhalte („Ein Wahlkampfhelfer hat diese E-Mail nicht geschrieben. Die KI hat es getan“).

Letztendlich wird die „effektive Nutzung von ChatGPT zu einer hochgeschätzten Fähigkeit, die sich auf die Anforderungen der Arbeitskräfte auswirkt“ (Canales, 2023, Abs. 3). College-Studenten, die nicht die Möglichkeit haben zu lernen, wann und wie sie KI-Chatbots in ihrem Studienfach einsetzen, werden im Berufsleben im Vergleich zu denen, die dies tun, benachteiligt – und so die digitale Kluft vergrößern.

Es könnte verlockend sein, bei Prüfungen auf Low-Tech-Optionen wie mündliche Prüfungen und handschriftliche Aufsätze zurückzugreifen, um Betrug mit KI zu verhindern. Diese altmodischen Bewertungstechniken schaffen jedoch häufig neue Lernhindernisse, insbesondere für behinderte Schüler, Englischlerner, neurodiverse Schüler und alle anderen Schüler, die auf Technologie angewiesen sind, um ihr Denken, ihre Kommunikation und ihr Lernen zu unterstützen.

Nehmen wir zum Beispiel einen Studenten mit eingeschränkter manueller Geschicklichkeit, der zum Schreiben auf Sprach-zu-Text-Tools angewiesen ist, stattdessen aber gebeten wird, Prüfungsantworten handschriftlich in ein blaues Buch zu schreiben. Oder ein Englischlerner, der sich beim Schreiben von Aufsätzen auf eine App verlässt, um Wörter zu übersetzen. Oder ein neurodiverser Student, der Schwierigkeiten mit der verbalen Kommunikation hat und nicht in der Lage ist, sein wahres Verständnis des Kursinhalts zu zeigen, wenn der Dozent ihn als eine Form der Bewertung kalt anspricht.

Ein Verbot der Nutzung von Technologie und der Rückgriff auf Low-Tech-Optionen für Prüfungen würde diese Studierenden und andere, die auf Technologie als Hilfsmittel angewiesen sind, benachteiligen und sich negativ auf ihre Lernerfahrung und ihren akademischen Erfolg auswirken. Bedenken Sie, dass einige der Schüler in diesen Beispielen möglicherweise über eine dokumentierte Behinderung verfügen, die eine alternative Formbewertung erfordert, dass jedoch nicht alle Schüler, die auf Technologie als Hilfsmittel für ihr Denken, ihre Kommunikation oder ihr Lernen angewiesen sind, über eine dokumentierte Behinderung verfügen, um dies zu erreichen gleiche Unterkünfte. Darüber hinaus können Prüfungen, bei denen die Studierenden ihr Wissen direkt vor Ort unter Beweis stellen müssen, wie z. B. mündliche Prüfungen, zu Stress- und Angstgefühlen beitragen oder diese verstärken und so den Lernprozess für viele, wenn nicht alle Studierenden behindern (siehe „Warum Ihre Prüfungen“) „Gehirn unter Stress lernt nicht richtig“).

KI-Textdetektoren funktionieren nicht auf die gleiche Weise wie Plagiatsprüfer. Plagiatsprüfer vergleichen von Menschen geschriebene Texte mit anderen von Menschen geschriebenen Texten. KI-Textdetektoren schätzen die Wahrscheinlichkeit, dass ein Text von Menschen oder KI geschrieben wurde. Beispielsweise verwendet der Sapling AI Content Detector „ein maschinelles Lernsystem (einen Transformer), das dem ähnelt, das zur Generierung von KI-Inhalten verwendet wird.“ Anstatt Wörter zu generieren, generiert der KI-Detektor stattdessen die Wahrscheinlichkeit, dass er denkt [Hervorhebung hinzugefügt], dass jedes Wort oder jeder Token im Eingabetext KI-generiert ist oder nicht“ (2023, Abs. 7).

Lassen Sie mich noch einmal wiederholen: KI-Textdetektoren erraten, ob ein Text von KI geschrieben wurde oder nicht.

Daher geben viele der KI-Texterkennungstools ausdrücklich an, dass sie nicht dazu verwendet werden sollten, Schüler beim Betrügen zu fangen oder zu bestrafen:

In einer empirischen Untersuchung von KI-Texterkennungsdetektoren stellten Sadasivan und Kollegen (2023) fest, „dass mehrere KI-Textdetektoren in praktischen Szenarien nicht zuverlässig sind“ (S. 1). Darüber hinaus kann der Einsatz von KI-Textdetektoren besonders schädlich für Englischlerner, Studierende mit Kommunikationsbehinderungen und andere sein, denen beigebracht wurde, auf eine Weise zu schreiben, die mit KI-generiertem Text übereinstimmt, oder die KI-Chatbots verwenden, um die Qualität und Klarheit von zu verbessern ihr Schreiben. Gegg-Harrison (2023) teilte diese Sorge:

Meine größte Sorge ist, dass die Schulen auf den Hype hören und beschließen werden, automatisierte Detektoren wie GPTZero zu verwenden und ihre Schüler „umgekehrten Turing-Tests“ zu unterziehen, und ich weiß, dass die Schüler, die am härtesten betroffen sein werden, diejenigen sind, die wir bereits am meisten überwachen: diejenigen, von denen wir glauben, dass sie nicht in der Lage sein sollten, eine klare, saubere Prosa zu produzieren, wie sie LLMs hervorbringen. Die Nicht-Muttersprachler. Die Sprecher marginalisierter Dialekte (Abs. 7).

Bevor Sie erwägen, einen KI-Textdetektor zur Identifizierung potenzieller Betrugsfälle zu verwenden, werfen Sie einen Blick auf diese frei zugängliche Foliensammlung zu KI-Textdetektoren, die Pädagogen dabei unterstützen soll, eine fundierte Entscheidung über den Einsatz dieser Tools in ihrer Praxis zu treffen.

KI-Chatbots haben die Bedeutung akademischer Integrität erhöht. Auch wenn die Weitergabe von KI-generiertem Text als von Menschen erstellter Text ein klarer Verstoß gegen die akademische Integrität zu sein scheint, wie wäre es mit der Verwendung von KI-Chatbots zur Überarbeitung von Texten, um die Schreibqualität und die Sprache zu verbessern? Oder wie wäre es mit der Verwendung von KI-Chatbots zur Erstellung von Referenzlisten für eine Arbeit? Oder wie wäre es mit der Verwendung eines KI-Chatbots, um Fehler in einem Code zu finden und so das Debuggen des Codes zu erleichtern?

Die Studierenden müssen die Möglichkeit haben, darüber zu diskutieren, welche Rolle KI-Chatbots und andere KI-Tools beim Lernen, Denken und Schreiben spielen sollten und welche nicht. Ohne diese Gespräche müssen Menschen und sogar Organisationen versuchen, dies auf eigene Faust herauszufinden, oft auf eigene Kosten oder auf Kosten anderer. Nehmen wir zum Beispiel das Unternehmen zur Unterstützung der psychischen Gesundheit Koko, das beschlossen hat, ein Experiment mit Benutzern durchzuführen, die emotionale Unterstützung suchen, indem es von Menschen generierte Antworten durch GPT-3-erzeugte Antworten ergänzt und in einigen Fällen ersetzt. Als Nutzer herausfanden, dass die Antworten, die sie erhielten, nicht vollständig von Menschen verfasst waren, waren sie schockiert und fühlten sich getäuscht (Ingram, 2023). Dann war da noch der Anwalt, der ChatGPT nutzte, um einen juristischen Schriftsatz für das Bundesbezirksgericht zu erstellen, aber dabei erwischt wurde, weil der Schriftsatz gefälschte Rechtsgutachten und juristische Zitate enthielt (Weiser & Schweber, 2023). Es scheint, als ob jeder versucht herauszufinden, welche Rolle ChatGPT und andere KI-Chatbots bei der Texterstellung oder beim Schreiben unterstützen könnten.

College-Kurse können ein guter Ort sein, um Gespräche über akademische Integrität zu beginnen. Allerdings ist akademische Integrität oft Teil des verborgenen Lehrplans – etwas, von dem von den Studierenden erwartet wird, dass es es weiß und versteht, das aber im Unterricht nicht explizit besprochen wird. Beispielsweise sind Lehrkräfte in der Regel verpflichtet, in ihre Lehrpläne vorgefertigte Erklärungen zur akademischen Integrität aufzunehmen. Meine Universität verlangt in jedem Lehrplan den folgenden Text:

Da die Integrität des akademischen Unternehmens einer Hochschule Ehrlichkeit in Wissenschaft und Forschung erfordert, ist akademische Ehrlichkeit von allen Studierenden der University of Massachusetts Amherst erforderlich. Akademische Unehrlichkeit ist in allen Programmen der Universität verboten. Zu akademischer Unehrlichkeit zählen unter anderem: Betrug, Fälschung, Plagiat und die Förderung von Unehrlichkeit. Gegen jeden Studierenden, der eine wissenschaftliche Unehrlichkeit begangen hat, können entsprechende Sanktionen verhängt werden. Lehrende sollten angemessene Maßnahmen ergreifen, um akademisches Fehlverhalten zu bekämpfen. Jede Person, die Grund zu der Annahme hat, dass ein Student akademische Unehrlichkeit begangen hat, sollte diese Informationen so schnell wie möglich dem zuständigen Kursleiter zur Kenntnis bringen. Fälle akademischer Unehrlichkeit, die nicht mit einem bestimmten Kurs in Zusammenhang stehen, sollten dem zuständigen Abteilungsleiter oder Lehrstuhlinhaber zur Kenntnis gebracht werden. Da von den Studierenden erwartet wird, dass sie mit dieser Richtlinie und den allgemein anerkannten Standards akademischer Integrität vertraut sind, ist die Unkenntnis dieser Standards normalerweise kein ausreichender Beweis für mangelnde Absicht. [Hervorhebung hinzugefügt] (University of Massachusetts Amherst, 2023).

Zwar gibt es ein detailliertes Online-Dokument, in dem Betrug, Fälschung, Plagiat und die Förderung von Unehrlichkeit beschrieben werden, es ist jedoch unwahrscheinlich, dass den Studierenden die Zeit gegeben wurde, dieses Dokument zu untersuchen oder zu diskutieren; und das Dokument wurde nicht aktualisiert, um zu berücksichtigen, wie diese Verhaltensweisen im Zeitalter der KI-Chatbots aussehen könnten. Dennoch wird von den Studierenden erwartet, dass sie akademische Integrität beweisen.

Was dies noch schwieriger macht, ist, dass wenn man sich die Nutzungsbedingungen von OpenAI ansieht, dort steht, dass Benutzer Eigentümer der Ausgabe sind (alles, was sie ChatGPT generieren lassen) und die Ausgabe für jeden Zweck, auch für kommerzielle Zwecke, verwenden können, solange sie sich daran halten durch die Bedingungen. In den Nutzungsbedingungen heißt es jedoch auch, dass Benutzer von ChatGPT generierten Text nicht als von Menschen erstellt darstellen können. Das Einreichen eines vollständig von ChatGPT verfassten Aufsatzes stellt also einen klaren Verstoß gegen die Nutzungsbedingungen dar (und gilt als Betrug). Was aber, wenn Studierende in einem Aufsatz nur wenige von ChatGPT verfasste Sätze verwenden? Oder ChatGPT verwenden, um einige Absätze in einer Arbeit neu zu schreiben? Stellen diese Beispiele einen Verstoß gegen die OpenAI-Nutzungsbedingungen oder die akademische Integrität dar?

Studierende benötigen Möglichkeiten, die ethischen Fragen rund um den Einsatz von KI-Chatbots zu diskutieren. Diese Gespräche können und sollten im formalen Bildungsumfeld beginnen. Hier sind einige Möglichkeiten, wie Sie diese Gespräche in Gang bringen können:

Wenn Sie Beispielerklärungen zur akademischen Integrität als Inspiration benötigen, schauen Sie sich das von Lance Eaton kuratierte Dokument „Klassenzimmerrichtlinien für KI-generative Tools“ an.

Derzeit gibt es mehr als 550 KI-Startups, die insgesamt 14 Milliarden US-Dollar an Finanzmitteln eingesammelt haben (Currier, 2022). KI wird ein wichtiger Teil der Zukunft der Studierenden sein; Daher brauchen Studierende die Möglichkeit, mit und über KI zu lernen.

Beim Lernen mit KI geht es darum, Schülern die Möglichkeit zu geben, KI-Technologien, einschließlich KI-Chatbots, zu nutzen, um ihr Denken und Lernen zu unterstützen. Auch wenn es den Anschein hat, als würden Schüler KI-Chatbots nur zum Schummeln nutzen, nutzen sie KI-Chatbots tatsächlich eher, um bei Dingen wie Brainstorming, der Verbesserung der Qualität ihres Schreibens und personalisiertem Lernen zu helfen. KI kann das Lernen auf verschiedene Weise unterstützen, unter anderem als „KI-Tutor, KI-Coach, KI-Mentor, KI-Teamkollege, KI-Tool, KI-Simulator und KI-Schüler“ (Mollick & Mollick, 2023, S. 1). KI-Chatbots können auch On-Demand-Erklärungen, personalisierte Lernerfahrungen, Unterstützung für kritisches und kreatives Denken, Lese- und Schreibunterstützung, kontinuierliche Lernmöglichkeiten und die Stärkung des Kernwissens bieten (Nguyen et al., 2023; Trust et al., 2023). Tate und Kollegen (2023) behaupteten, dass der Einsatz von KI-Chatbots für diejenigen von Vorteil sein könnte, die Schwierigkeiten haben, gut zu schreiben, darunter Nicht-Muttersprachler und Personen mit Sprach- oder Lernbehinderungen.

Über KI zu lernen bedeutet, den Studierenden die Möglichkeit zu geben, KI-Technologien kritisch zu hinterfragen. KI-Chatbots können falsche, irreführende, schädliche und voreingenommene Informationen liefern. Sie werden häufig anhand von Daten geschult, die aus dem Internet „gekrabbelt“ (oder als „gestohlen“ betrachtet) werden. Der ihnen beigebrachte Text privilegiert bestimmte Denk- und Schreibweisen. Diese Tools können als „Superverbreiter von Fehlinformationen“ dienen (Brewster et al., 2023). Viele dieser Tools verdienen Geld mit kostenloser Arbeitskraft oder billiger ausländischer Arbeitskraft. Daher müssen Studierende lernen, die Produktion, den Vertrieb, den Besitz, das Design und die Verwendung dieser Tools kritisch zu prüfen, um eine fundierte Entscheidung darüber zu treffen, ob und wie sie sie in ihrem Studienbereich und ihrer zukünftigen Karriere einsetzen. Beispielsweise könnten Studierende eines Politikwissenschaftskurses die Ethik der Verwendung eines KI-Chatbots zur Erstellung personalisierter Kampagnenanzeigen auf der Grundlage demografischer Informationen untersuchen. Oder Studierende in einem Wirtschaftskurs diskutieren darüber, ob Unternehmen den Einsatz von KI-Chatbots zur Steigerung der Produktivität vorschreiben sollten. Oder Studierende in einem Bildungskurs könnten untersuchen, wie KI-Chatbots durch die Nutzung, den Verkauf und die Weitergabe von Benutzerdaten Geld verdienen, und darüber nachdenken, ob die Vorteile der Verwendung dieser Tools die Risiken überwiegen (z. B. Eingriff in die Privatsphäre der Studierenden, Preisgabe von Studierendendaten).

Zwei Ressourcen, die Ihnen den Einstieg in die kritische Bewertung von KI-Tools durch Schüler erleichtern, sind das Curriculum „Civics of Technology“ und der Critical Media Literacy Guide for Analyzing AI Writing Tools.

Die Wahrscheinlichkeit, dass Schüler betrügen, ist höher, wenn der Fokus stärker auf den Ergebnissen (Noten) als auf dem Lernen liegt (Anderman, 2015), wenn Stress, Druck und Angst zugenommen haben (Piercey, 2020), wenn der Fokus auf akademischer Integrität mangelt, Vertrauen und Beziehungsaufbau (Lederman, 2020), der Stoff wird nicht als relevant oder wertvoll für die Schüler wahrgenommen (Simmons, 2018) und der Unterricht wird als schlecht wahrgenommen (Piercey, 2020).

Teil 2 wird am Freitag, den 4. August verfügbar sein. In Teil 2 wird erläutert, wie Sie Aufgaben mithilfe des TRUST-Modells neu gestalten können, um als pädagogisches Werkzeug zu dienen.

Torrey Trust, PhD, ist außerordentlicher Professor für Lerntechnologie in der Abteilung für Lehrerbildung und Lehrplanstudien am College of Education der University of Massachusetts Amherst. Im Mittelpunkt ihrer Arbeit steht die kritische Auseinandersetzung mit der Beziehung zwischen Lehren, Lernen und Technologie; und wie Technologie das Lernen von Lehrern und Schülern verbessern kann. Im Jahr 2018 wurde Dr. Trust als einer der Empfänger für den ISTE Making IT Happen Award ausgewählt, der „herausragende Pädagogen und Führungskräfte ehrt, die außergewöhnliches Engagement, Führungsqualitäten, Mut und Beharrlichkeit bei der Verbesserung digitaler Lernmöglichkeiten für Schüler zeigen.“

Verweise

Anderman, E. (2015, 20. Mai). Schüler betrügen um gute Noten. Warum nicht den Unterricht zum Thema Lernen und nicht zum Testen machen? Die Unterhaltung. https://theconversation.com/students-cheat-for-good-grades-why-not-make-the-classroom-about-learning-and-not-testing-39556

Brewster, J., Arvanitis, L. & Sadeghi, M. (2023, Januar). Der nächste große Superverbreiter von Fehlinformationen: Wie ChatGPT toxische Fehlinformationen in beispiellosem Ausmaß verbreiten könnte. NewsGuard. https://www.newsguardtech.com/misinformation-monitor/jan-2023/

Canales, A. (2023, 17. April). ChatGPT ist hier, um zu bleiben. Prüfungen und Lehrplan müssen angepasst werden, damit die Schüler erfolgreich sind. Die 74 Millionen. https://www.the74million.org/article/chatgpt-is-here-to-stay-testing-curriculum-must-adapt-for-students-to-succeed/

BESETZUNG (2018). Universal Design for Learning-Richtlinien Version 2.2. http://udlguidelines.cast.org

Currier, J. (2022, Dezember). Die NFX-Marktkarte für generative Technologien. NFX. https://www.nfx.com/post/generative-ai-tech-market-map

Gegg-Harrison, W. (2023, 27. Februar). Gegen den Einsatz von GPTZero und anderen LLM-Erkennungstools beim Schreiben von Studierenden. Mittel. https://writerethink.medium.com/against-the-use-of-gptzero-and-other-llm-detection-tools-on-student-writing-b876b9d1b587

GPTZero. (nd). https://gptzero.me/

Ingram, D. (2023, 14. Januar). Ein Technologieunternehmen für psychische Gesundheit führte ein KI-Experiment mit echten Benutzern durch. Nichts hindert Apps daran, mehr zu leisten. NBC-Nachrichten. https://www.nbcnews.com/tech/internet/chatgpt-ai-experiment-mental-health-tech-app-koko-rcna65110

Kirchner, JH, Ahmad, L., Aaronson, S. & Leike, J. (2023, 31. Januar). Neuer KI-Klassifikator zur Anzeige von KI-geschriebenem Text. OpenAI. https://openai.com/blog/new-ai-classifier-for-indicating-ai-scribed-text

Lederman, D. (2020, 21. Juli). Der beste Weg, das Schummeln in Online-Kursen zu stoppen? Besser lehren. Inside Higher Ed. https://www.insidehighered.com/digital-learning/article/2020/07/22/technology-best-way-stop-online-cheating-no-experts-say-better

Lucariello, K. (2023, 12. Juli). Der Bericht „Time for Class 2023“ zeigt das größte Anliegen der Fakultät: Verhinderung von Betrug durch Schüler durch KI. Campus-Technologie. https://campustechnology.com/articles/2023/07/12/time-for-class-2023-report-shows-number-one-faculty-concern-preventing-student-cheating-via-ai.aspx

Mollick, E. & Mollick, L. (2023). KI zuweisen: Sieben Ansätze für Studierende, mit Hinweisen. ArXiv. https://arxiv.org/abs/2306.10052

Nguyen, T., Cao, L., Nguyen, P., Tran, V. & Nguyen P. (2023). Fähigkeiten, Vorteile und Rolle von ChatGPT beim Chemieunterricht und -lernen an vietnamesischen Gymnasien. EdArXiv. https://edarxiv.org/4wt6q/

Nolan, B. (2023, 30. Januar). Hier sind die Schulen und Hochschulen, die die Verwendung von ChatGPT aus Angst vor Plagiaten und Fehlinformationen verboten haben. Geschäftseingeweihter. https://www.businessinsider.com/chatgpt-schools-colleges-ban-plagiarism-misinformation-education-2023-1

Piercey, J. (2020, 9. Juli). Erleichtert Fernunterricht das Betrügen? UC San Diego heute. https://today.ucsd.edu/story/does-remote-instruction-make-cheating-easier

Sapling AI Content Detector. (nd). https://sapling.ai/ai-content-detector

Tate, TP, Doroudi, S., Ritchie, D., Xu, Y. & Uci, MW (2023, 10. Januar). Bildungsforschung und KI-generiertes Schreiben: Dem kommenden Tsunami begegnen. EdArXiv. https://doi.org/10.35542/osf.io/4mec3

Simmons, A. (2018, 27. April). Warum Schüler betrügen – und was man dagegen tun kann. Edutopia. https://www.edutopia.org/article/why-students-cheat-and-what-do-about-it

Sinha, T. & Kapur, M. (2021). Wenn Problemlösung mit anschließender Anleitung funktioniert: Beweis für produktives Scheitern. Review of Educational Research, 91(5), 761-798.

Trust, T., Whalen, J. & Mouza, C. (2023). ChatGPT: Herausforderungen, Chancen und Auswirkungen auf die Lehrerausbildung. Zeitgenössische Fragen der Technologie und Lehrerbildung, 23(1), 1-23.

Universität von Massachusetts Amherst. (2023). Erforderliche Lehrplanerklärungen für Kurse, die zur Genehmigung eingereicht werden. https://www.umass.edu/senate/content/syllabi-statements

Weiser, B. & Schweber, N. (2023, 8. Juni). Der ChatGPT-Anwalt erklärt sich. Die New York Times. https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html

Wenn Sie sich mit der Rolle auseinandersetzen, die KI bei der Unterstützung von Schülern beim Betrügen spielt, sollten Sie die folgenden sechs wichtigen Punkte im Hinterkopf behalten:1. Das Verbot von KI-Chatbots kann die digitale Kluft verschärfen2. Das Verbot des Einsatzes von Technologie für Prüfungen kann zu einer unzugänglichen, diskriminierenden Lernerfahrung führen.2. Das Verbot des Einsatzes von Technologie für Prüfungen kann zu einer unzugänglichen, diskriminierenden Lernerfahrung führen3. KI-Textdetektoren sind nicht dazu gedacht, Schüler beim Betrügen zu erwischen.4. Eine Neugestaltung der Erklärungen zur akademischen Integrität ist unerlässlich.5. Studierende brauchen Möglichkeiten, mit und über KI zu lernen6. Die Neugestaltung von Aufgaben kann das Betrugspotenzial mit KI verringern.Verweise