Vor einem Jahr hat die Veröffentlichung von ChatGPT einen weltweiten Hype um das Thema Künstliche Intelligenz entfacht, der auch in unseren Schulen spürbar ist. Lehrkräfte, Lernende und Eltern stehen vor neuen Fragen: Wie verändert Künstliche Intelligenz den Unterricht? Welche Chancen, Risiken und Nebenwirkungen bringt die Technologie mit sich? Wir bei Edkimo verfolgen die Entwicklungen genau und kritisch, experimentieren mit den Tools, lesen Forschungsbeiträge und diskutieren die Grundbegriffe. Sind Sie bereit, mit uns gemeinsam einen Blick über den Hype-Tellerrand zu werfen?
Was ist Intelligenz?
Bevor wir über Künstliche Intelligenz (KI) in der Schule sprechen, fangen wir ganz am Anfang an: Was ist Intelligenz eigentlich? Niemand weiß das so genau, und fast fühlt man sich bei der Frage an den heiligen Augustinus erinnert, der über den Begriff Zeit einmal sagte: “Was ist also die Zeit? Wenn mich niemand fragt, weiß ich es; wenn ich es aber einem Fragenden erklären will, weiß ich es nicht.” Lassen wir uns nicht entmutigen bei dem Versuch, die Begriffe Intelligenz und Künstliche Intelligenz greifbar zu machen. In der Folge können wir mögliche Auswirkungen von KI in der Schule sowie ganz konkrete Anwendungsfälle diskutieren.
Intelligenz ist ein Container-Begriff, vielleicht sogar ein ganzes Container-Schiff. Hervorgegangen ist er aus dem griechischen Wort nous und der lateinischen Ableitung intelligentia. Diese antiken Termini umfassen so ziemlich alles – von Denkkraft, Verstand und Geist über Gemüt, Herz und Gesinnung, aber auch Meinung, Wunsch und Wille bis hin zu Herz, Kunstverstand und Geschmack. Für die Kirchenlehrer des Mittelalters war intelligentia eine Eigenschaft Gottes: Gott selbst ist die höchste intelligentia. Ein Echo findet sich noch heute im “intelligent design” einem Slogan der evangelikalen Kreationisten gegen die Evolutionstheorie.
Im Zeitalter der Aufklärung gelangte intelligentia dann zunächst in England und Frankreich, später auch in Deutschland, von der Gelehrtensprache in den allgemeinen Sprachgebrauch. Und zwar in der ganz profaneren Bedeutung von Intelligenz als einfache Mitteilung, Nachricht oder Information. Intelligenzblätter waren seit dem 18. Jahrhundert kleine Zeitschriften mit Kurzmeldungen und Lokalnachrichten. Seit dem 2. Weltkrieg gibt es in den USA die Central Intelligence Agency (CIA) deren Auftrag lautet: Informationsbeschaffung von und durch Menschen, human intelligence. Wie das mitunter geschieht, wissen wir aus den Nachrichten und Geschichtsbüchern.
Intelligenz erforschen…
Seit Ende des 19. Jahrhunderts haben die neu entstandenen Wissenschaften Psychologie und Soziologie den Intelligenzbegriff aus den Nachbardisziplinen der Philosophie und Theologie übernommen und als eigenes Forschungsfeld etabliert. In der Soziologie bezeichnet Intelligenz seither die gesamte Schicht der “Geistesarbeiter”, sicherlich eine Übertragung aus der russischen Intelligenzija. Die Psychologie machte sich ihrerseits daran, Intelligenz zu verorten, zu vermessen und die Deutungshoheit darüber zu erlangen.
… und vermessen
Die Intelligenzmessung entwickelte sich in schnellen Schritten mit dem französischen Psychologen Alfred Binet (1905) und seinem Intelligenztest, der mit einem Fragebogen das “Intelligenzalter” von Kindern bestimmen wollte. Es folgte der deutsche Psychologe William Stern (1912), der die Testergebnisse durch das Lebensalter dividierte und so den Intelligenzquotienten IQ erfand. Schließlich multiplizierte der Amerikaner Lewis Terman in Stanford das Ergebnis mit 100, um die Kommastelle aus dem IQ zu entfernen und nutzte den Stanford-IQ-Test millionenfach als Eignungstest für amerikanische Rekruten im Ersten Weltkrieg.
Auf der Glockenkurve der Normalverteilung ist seither ein IQ von 100 “normal”, wer mehr oder weniger Punkte erzielt gilt als über- oder unterdurchschnittlich intelligent. In der Zwischenzeit entdeckte der britische Psychologe Charles Spearman in komplizierten statistischen Zusammenhängen über die Faktorenanalyse den so genannten g-Faktor, der auch als general intelligence bezeichnet wird, als allgemeine Intelligenz. Ohne dass freilich klar wäre, in welchem Zusammenhang diese mathematische Größe mit der Wirklichkeit steht (vgl. Gould 1988). Das wird auch heutzutage wieder interessant, wenn das Schreckgespenst der artificial general intelligence (AGI) an die Wand gemalt wird, doch dazu später mehr.
Intelligenz als moderne Tugend
Die Gemengelage des Intelligenzbegriffs ist seit rund 100 Jahren so komplex und der Bezug der Statistik zur Realität so luftig geworden, dass der amerikanische Psychologe Edwing Boring 1923 die recht ernüchternde wenngleich noch heute zutreffende Definition anbot: “Intelligence is what the tests test”. Das heißt: “Intelligenz ist das, was Intelligenztests messen.” Im Grunde ein Zirkelschluss, von dem sich aber niemand abschrecken ließ. Denn trotz aller Begriffsverwirrung gilt Intelligenz, neben Flexibiltät und Teamfähigkeit, als die Kardinaltugend der Moderne, wie Hans Magnus Enzensberger treffend bemerkte. Auch die Tatsache, dass sich die Ergebnisse von Intelligenztests im Laufe des 20. Jahrhunderts von Generation zu Generation verbessert haben (Flynn-Effekt), passt gut in dieses moderne Fortschrittsnarrativ.
Was ist nun künstliche Intelligenz?
Der Begriff “Künstliche Intelligenz” wurde 1955 im Rahmen eines Förderantrags und einer Konferenz am Dartmouth College geprägt und leitet sich direkt aus dem Begriff der “Intelligenz” ab, obwohl damals wie heute niemand genau sagen konnte, was dieser bedeutet: “Für den vorliegenden Zweck wird das Problem der künstlichen Intelligenz so verstanden, dass es darum geht, eine Maschine dazu zu bringen, sich in einer Weise zu verhalten, die man als intelligent bezeichnen würde, wenn ein Mensch so handeln würde.” Dieser lange Schachtelsatz windet sich folgendermaßen um das Intelligenzproblem herum, indem er vorschlägt: lassen wir eine Maschine einfach intelligentes Verhalten eines Menschen imitieren. Und die Intelligenz-Erzählung wird damit noch luftiger.
Hinzu kommt, dass die naheliegende deutsche Direktübersetzung “künstliche Intelligenz” völlig unzureichend ist (vgl. Irrgang und Klawitter 1990). “Intelligence” meint bei einem amerikanischen Präsidenten eben nicht nur seine geistigen Fähigkeiten, sondern auch die Informationen, die er oder sie von den Nachrichtendiensten erhält. “Artificial” ist einerseits künstlich und menschengemacht, aber auch heuchlerisch, falsch, vorgetäuscht. Wenn wir also “künstliche Intelligenz” hören, können wir getrost auch “gekünstelte Nachricht” und anderes verstehen. Von dort ist es gar nicht mehr so weit weg von dem, was ein ehemaliger amerikanischer Präsident als “alternative Fakten” und “Fake News” bezeichnet hat.
Künstliche Intelligenz als Marketing
So wie der Begriff “künstliche Intelligenz” heute verwendet wird, ist er vor allem eines: ein Marketing-Coup. Jede Art von Automatisierung – sei es eine Software, ein Algorithmus oder ein Chatbot – klingt damit fortschrittlich, hochentwickelt und mächtig, fast wie Zauberei. Ähnlich wie für die Kirchenlehrer des Mittelalters ist für die KI-Propheten der Moderne Intelligenz nicht nur eine Eigenschaft der Maschine: die Maschine soll selbst zur höchsten Intelligenz, zur Artificial General Intelligence (AGI), zur Superintelligenz werden. Das sichert Unternehmen und Forschungsprojekten das nötige Kapital. Noch wichtiger ist aber ein anderer Aspekt. Indem Unternehmen und Konzerne ihre Maschinen unter dem Begriff “Künstliche Intelligenz” als selbständig denkende Wesen vermarkten, können sie sich leicht der damit verbundenen Verantwortung entziehen.
Der Zukunft verschrieben
Für die Propheten der Künstlichen Intelligenz der 1950er Jahre und heute ist es geradezu verpönt, sich mit der Vergangenheit oder der unbefriedigenden Gegenwart zu beschäftigen. Sie haben sich voll und ganz der Zukunft verschrieben. In ihren Allmachtsphantasien geht es um nichts weniger als die Überwindung des Todes, die Loslösung des menschlichen Gehirns von der sterblichen Biomasse, um allmächtige Maschinen, die alle Leistungen menschlicher Gehirne übertreffen, und um Roboter, auf denen ich mein menschliches Gehirn speichern kann. Da klingt auch die These des Radikalaufklärers und Materialisten La Mettrie an, der bereit im 18. Jahrhundert von der Mensch-Maschine sprach.
KI-Winter und Science Fiction
Doch im 20. Jahrhunder kam es nach anfänglichen Hoffnungen zu wenig konkreten Erfolgen und es folgte der sogenannte “KI-Winter”. Das Thema war lange Zeit eher ein Thema für Science-Fiction-Filme. Erst 2022 wurde es plötzlich wieder sehr laut, als OpenAI den Chatbot ChatGPT veröffentlichte und es massentauglich und sehr einfach machte, mit einem vortrainierten Großen Sprachmodell Chatnachrichten auszutauschen. Die Aufregung war groß und auf den KI-Winter folgte ein neuer KI-Hype.
Der Turing-Test
Es ist also schwierig, die Begriffe Intelligenz und Künstliche Intelligenz klar zu fassen. Auch Alan Turing formuliert deshalb in seinem berühmten Essay “Kann eine Maschine denken?” (1950) den sogenannten Turing-Test als “Imitationsspiel”: Kann ein Mensch herausfinden, ob er mit einer Maschine oder einem anderen Menschen kommuniziert?
KI in der Schule
Und da sowohl die Intelligenzmessung als auch die Künstliche Intelligenz ganz konkrete politische und soziale Problematiken in der Gegenwart und für uns Menschen produzieren, müssen wir versuchen den KI-Hype zu durchschauen und auf die konkreten Probleme der Gegenwart hinweisen: Welche Auswirkungen hat KI auf uns als Menschen? Und zwar heute und morgen, nicht erst in ferner Zukunft.
Nennen wir es Automatisierung!
Wir schlagen vor, eine Idee von Emily M. Bender aufzugreifen (Stochastic Parrot Paper) und in der Schule statt Künstlicher Intelligenz einfach von “Automatisierung” zu sprechen. Automatisierung bezeichnet wie die meisten Substantive mit der Nachsilbe “-ung” sowohl einen Zustand als auch einen Prozess.
Ein solcher Ansatz befreit die KI-Diskussion, klärt einige obskure oder versteckte Diskussionspunkte auf und ermöglicht es uns, die wirklichen politischen und gesellschaftlichen Probleme zu thematisiseren, die mit KI in der Schule verbunden sind. Die Fragen sind also:
- Was wird in der Schule automatisiert?
- Wer automatisiert und warum?
- Wem nützt Automatisierung und wem schadet sie?
- Wie gut funktioniert die Automatisierung in der Schule?
- Wer ist für die Automatisierungssysteme und Ergebnisse verantwortlich?
- Welche Richtlinien und Gesetze gelten?
Doch schauen wir zunächst auf einige Automatisierungssysteme, die heutzutage “Künstliche Intelligenz” (lies auch: “gekünstelte Intelligenz”) genannt werden – und die ggf. auch auf die Schule übertragen werden könnten. Dabei ist ChatGPT selbst nur ein kleiner Teil.
(1) Automatische Entscheidungssysteme
Wird bei Kreditentscheidungen von Banken, Laufbahnentscheidungen zur Studienplatzvergaben – z.B. Parcoursup in Frankreich – oder bei der Vorsortierung von Bewerbungen in Firmen längst eingesetzt. Und aufgrund unserer zutiefst menschlichen Automation Bias hat der Computer schließlich immer recht: Computer says no!
Im schulischen Kontext könnte man sich, ähnlich wie in Frankreich bei der Studienplatzvergabe, automatisierte Laufbahnentscheidungen beim Übergang von der Grundschule auf die weiterführende Schule vorstellen. Wollen wir das?
(2) Automatische Kategorisierung
Wer kennt es nicht? Tausende Fotos auf dem Smartphone und trotzdem nicht den Überblick verlieren. Automatische Kategorisierungssysteme können zum Beispiel Bilder einer Person oder einem Ereignis zuordnen – Eltern, Kinder, beste Freund*innen, Geburtstagsfeiern, Sonnenuntergänge, Mittagessen. Und da heutzutage das gesamte Internet werbefinanziert ist, helfen solche Systeme auch bei der lukrativen Einteilung der Internet-Nutzer*innen in spezielle Zielgruppen für personalisierte Werbung. Solche Systeme werden von allen Big Tech Unternehmen betrieben.
Im Bildungsbereich könnte man sich automatische Notenvergabe vorstellen, die Pausenaufsicht per Videoüberwachung oder wie in China die automatische Gesichtserkennung im Klassenraum, um zu sehen, welche Schüler aufmerksam sind und welche nicht. Wollen wir die Menschen wirklich so überwachen und steuern?
(3) Automatische Empfehlungssysteme
Seit der sogenannte “Feed” die Zeitleiste in unseren Social Media Profilen ersetzt hat, werden wir nicht mehr chronologisch mit Beiträgen versorgt, sondern unsere kurze Aufmerksamkeitsspanne muss automatisiert “gefüttert” werden. Ähnlich funktionieren auch Kaufempfehlungen bei Amazon, Musikempfehlungen bei Spotify oder Filmvorschläge bei Netflix.
Content-basierte Bildungsunternehmen wie Eduki empfehlen Arbeitsblätter, Simple Club oder Daniel Jung empfehlen mithilfe von Youtube passende Erklärvideos. Beides bezieht sich in der Regel auf einen einzelnen Schüler oder Schülerin oder eine kleine Gruppe. Aber ist personalisiertes Lernen wirklich wirkungsvoller als das soziale Lernen in einer Gruppe?
(4) Automatischer Zugang auf menschliche Arbeitskraft
Mitunter auch unter dem Stichwort “Gig Economy” verortet, geht es hier darum möglichst schnell und effektiv willige Arbeitskräfte mit Kunden und Kapital zu verknüpfen. Die Beispiele reichen von Uber-Taxis, Essenslieferdiensten bis zu Online-Plattformen für Freelancer wie Upwork.
Nachhilfe-Firmen wie Gostudent versprechen jeder Schülerin und jedem Schüler die passende Lehrperson zu bieten, freilich in Verbindung zum Kapital der Eltern. Ist bezahlte Nachhilfe wirklich ein Beitrag zu besserer Bildung oder verfestigt sie nur systematische Ungleichheiten?
(5) Automatische Übersetzung in ein anderes Format
Dazu zählt das automatische Transkribieren von gesprochener Sprache in Schriftsprache, die es zum Beispiel ermöglicht, Youtube-Videos oder Zoom-Calls automatisch und in Echtzeit zu untertiteln. Die Lautsprecherdurchsage am Bahnsteig dreht dieses Prinzip herum und verliest schriftliche Informationen als Sprache. Auch die automatisierte Erkennung von Autokennzeichen, die Bildererkennung und Übersetzung des Menüs auf der Urlaubsreise oder die Maschinen-Übersetzung von einer Sprache in eine andere mit DeepL oder Google Translate gehören zu diesem Bereich.
Im Schulbereich könnte man sich vorstellen, nie wieder von der Tafel abschreiben zu müssen, ein Foto genügt und der Text an der Tafel wird automatisch extrahiert und abgespeichert. Nie wieder mitschreiben müssen, die Rede der Lehrkraft und das Unterrichtsgespräch werden automatisch transkribiert. Ist Lernen wirklich ohne Anstrengung möglich?
(6) Automatische Text- und Bilderzeugung
Bei ChatGPT, Midjourney & Co. spricht Emily Bender von “Synthetischen Medienmaschinen”, die Erschaffer selbst reden von “Generativer KI”. Einige Tools wie Midjourney oder Dall-E erstellen Bilder aufgrund von Textanweisungen. Manche produzieren automatisch Videos. Wieder andere erzeugen plausibel klingende Texte ohne irgendeine Verbindung zur Wirklichkeit – und ohne Verantwortung für das was gesagt wird. Überspitzt formuliert haben derartige Automatisierungssysteme die gleiche Funktion wie “Autocomplete” im Eingabefeld der Google-Suche. Nur dass dieses Autocomplete sich von Wort zu Wort sehr kohärent glaubhaft weiterhangeln kann und viele Wörter zu Sätzen und schließlich zu sinnvoll erscheinenden Texten aneinander reiht.
Der Output derartiger Medienmaschinen macht zunächst keinerlei Sinn, es gibt keine Verbindung und kein Verständnis der Wirklichkeit, erst wir als Leser*innen und Betrachter*innen versuchen – und müssen versuchen – in der Informationsflut dem Gesagten oder Gezeigten einen Sinn zu geben und den Wahrheitsgehalt einzuschätzen.
Die Gefahr von derartigen Texten und Bildern liegt auf der Hand. Es scheint, als hätten wir Roboter-Ärzte, Roboter-Rechtsanwälte, Roboter-Schriftsteller, Roboter-Wissenschaftler, Roboter-Therapeuten und Roboter-Lehrkräfte. Aber dem ist nicht so. Zunächst einmal werden einfach nur auf Grundlage der Trainingsdaten in großem Stil Inhalte erzeugt und zurück ins Internet gespült.
Im Schulbereich können dadurch die klassischen Hausaufgaben und auch schriftliche Prüfungen eigentlich abgeschafft werden. Dafür sind neue, kreative Gestaltungsformen denkbar: um ein Bild zu erzeugen, brauche ich nicht mehr zeichnen zu können, um Musik zu erzeugen, brauche ich kein Instrument mehr spielen zu können. Es besteht jedoch auch die Gefahr, die ohnehin schon große Abhängigkeit der Schule von Schriftsprache noch weiter zu verstärken. Ganz abgesehen von der Floskelhaftigkeit der Automatisierungsergebnisse von Textgeneratoren. Wollen wir wirklich eine Schule in der Lehrkräfte automatisch generierte Aufgaben stellen, Lernende automatisch generierte Texte produzieren und Lehrkräfte automatisches Feedback geben?
Gemeinsamkeiten, Risiken und Nebenwirkungen
Alle genannten Automatisierungssysteme …
- benötigen Trainingsdaten
- erkennen Muster in Trainingsdaten
- können Muster in Echtzeit reproduzieren
- erzeugen Inhalte von unterschiedlicher Präzision und Erwünschtheit
- reproduzieren Vorurteile und Diskriminierung
- funktionieren gut aufgrund menschlicher Zuarbeit, die jedoch verschleiert wird
- fördern Überwachung, indem sie diese ermöglichen und sogar dazu motivieren
- nutzen die “Automation bias” aus, d.h. unser übersteigertes Vertrauen in automatisierte Systeme und den Glauben, der Computer sei objektiv, allwissend und fair.
Letztlich dient der Hype vor allem Unternehmensinteressen: er lässt “KI”-Technologie wertvoll und mächtig erscheinen, lenkt von den realen und gegenwärtigen Problemen ab und lässt die Entwicklungen zu schnell und derart fortschrittlich erscheinen, dass sie angeblich nicht politisch regulierbar sind.
Einsatzszenarien für Lehrkräfte, Schüler*innen und Edkimo
Seit rund einem Jahr ist ChatGPT nun online. Seitdem lernende Algorithmen in Textform und geradezu menschlich auf alle unsere Fragen antworten (und seien diese noch so bescheuert), hält KI auch Einzug in Schule, Bildung und unseren Alltag. Wir setzen uns kreativ und spielerisch damit auseinander und versuchen die Implikationen und Grenzen zu verstehen.
Lehrkräfte nutzen die sprachbasierte KI, um Ihren Unterricht vorzubereiten oder zu gestalten. Schüler*innen prompten, um den neuen Assistenten heimlich ihre Hausaufgaben oder auch das Abitur erledigen zu lassen. EdTech Unternehmen geben Schulungen zur neuartigen KI für Eltern, Lehrkräfte und alle, die gerade sonst noch aufgescheucht und verunsichert sind. Sie entwickeln eigene KI-basierte Anwendungen und Assistenten und erhoffen sich davon ein neues Marktfeld zu erschließen.
Herausgehoben werden dabei vor allem zwei Einsatzszenarien: zum einen die Möglichkeit für Lehrkräfte, über die im besten Fall durchdachte Abfrage an die KI binnendifferenziertes oder standardisiertes Material bereitzustellen, über das dann nur noch mit der richtigen Fachexpertise drübergescrollt werden muss. Zum anderen wird die Möglichkeit hervorgehoben, mit einem KI-basierten Assistenten jeder Schülerin und jedem Schüler eine eigene „Privatlehrkraft“ an die Hand zu geben, die genau weiß, woran es gerade hakt und im Nu die richtigen Lerntipps parat hat. Der künstliche Tutor stellt auch einen von vielen Lösungsvorschlägen dar gegen den Personalmangel an Schulen.
Der Geist ist aus der Flasche
Kritiker*innen an dem unkritischen Abfeiern der KI gibt es viele. Lassen wir einmal die Personen außer Acht, die für ein Verbot der neuen Technologie an der Schule eintreten oder heimlich hoffen, dass auch dieser Hype bald wieder vorübergeht. Der Geist ist aus der Flasche und ähnlich wie das Internet geht auch die KI nicht wieder zurück. Dann stellt sich doch für Schulpraktiker*innen die nicht ganz unwesentliche Frage, ob die deutsche Bildungslandschaft wirklich schon so weit ist – wenn es oft noch an so basalen Dingen wie einem funktionierenden WLAN oder der nötigen technischen Ausstattung hakt (siehe letzte Bitkom Studie).
Auch der Schutz personenbezogener Daten muss ganz oben auf der Liste stehen. Wie können Schüler*innen und Lehrkräfte den Umgang mit Text- und Bildgeneratoren erlernen und ausprobieren ohne dass ihre Texteingaben und Dialoge zu Trainingsmaterial von US-amerikanischen Großkonzernen werden? Weitere Gegenargumente: die Bias im Datensatz, also das zugrundeliegende, oft vorurteilsbelastete, mindestens aber einseitige Material, aus dem sich die Antworten speisen und welches bei Chat GPT übrigens nur bis ins Jahr 2021 reicht. Der Bot hat deshalb zum Ukrainekrieg nicht viel zu melden, wenigstens nichts Sinnvolles.
Was überleitet zur letzten und wahrscheinlich größten Schwachstelle im System: der Tatsache, dass ChatGPT – noch – ausschließlich ein Sprach- und kein Wissensmodell darstellt. Ausgespuckte Informationen müssen immer auf Ihre Richtigkeit überprüft werden. Die Diskussion um Medienkompetenz gewinnt an Dringlichkeit. Von den Antworten der KI etwas Neues zu erfahren, das funktioniert so noch nicht. Aber ChatGPT liefert Zuarbeit für Menschen, die es besser wissen. Und das ist nicht wenig.
Technische Helferlein und digitale Kluft
Digitaler Kalender, Online-Übersetzungsprogramme, Taschenrechner, das Internet oder einfach mein persönliches Notizbuch: Technische und analoge Helferlein gibt es viele und das allerwenigste, was wir Menschen wissen, ist nur in unserem Kopf gespeichert. ChatGPT setzt dem noch eins oben auf. Aber: um den Taschenrechner zu bedienen, muss ich die Grundrechenarten beherrschen. Und um die Grenzen und Vorzüge der KI zu erkennen, das System, das dahintersteht, verstehen. Insofern sind wieder die Schüler*innen im Vorteil, die das gleich miterfassen und schon den Berufswunsch „Prompt-Ingenieur*in“ äußern. Und die im Nachteil, die Technik vor allem konsumieren und menschengemachte Fakten nicht von maschinellen Fakes unterscheiden können. Die digitale Schere droht auch hier auseinanderzugehen.
Übrigens, wir prompten auch
Und bei Edkimo? Als Edtech-Startup sind wir von Natur aus neugierig und offen für neue Technologien. Selbstverständlich haben wir ChatGPT ziemlich bald nach Erscheinen erprobt und wenden das Programm regelmäßig an: für den ersten Aufschlag für eine Marketing-Mail oder das Zusammenfassen von Texten, für Inspiration, wenn uns selbst nichts einfallen mag. Auch für die Erledigung einfacher Aufgaben in der Software-Entwicklung ist der neue Assistent sehr, sehr hilfreich.
Beruf und Alltag lassen sich hier wie so oft immer weniger trennen. Erst kürzlich fragte ein Kollege, ob er zur Bezahlversion unseres Unternehmens vielleicht etwas beisteuern könnte, immerhin befrage er das Programm immer wieder auch zu seinem Hobby, dem Erstellen und Bearbeiten elektronischer Musik. Das werde ja auch der Prompt-Historie ersichtlich. Einer unserer Mitgründer macht sich als Lehrer einen Spaß daraus, ChatGPT Fehler zu erklären, die der Chatbot ganz menschlich am nächsten Tag wieder vergessen hat: zum Beispiel wie man das Wort Lollipop rückwärts schreibt. Oder er amüsiert sich über die Anzahl der Finger an einer Hand in den computergenerierten Bildern von Midjourney – zählen Sie bei den Beitragsbildern gerne einmal nach.
Welche Automatisierungen sind sinnvoll?
Bei aller Experimentierfreude stellen wir uns immer auch die Frage: welche Automatisierung und Einbindung von KI in Edkimo könnte sinnvoll sein. Unser Tool wird in erster Linie im Schulalltag genutzt. Dabei wägen wir auch die o.g. Risiken und Nebenwirkungen ab. Bislang haben wir uns gegen die Einbindung von ChatGPT & Co in unsere Software entschieden. Schulen sind und bleiben für uns “Werkstätten der Menschlichkeit” wie Comenius es vor fast einem halben Jahrtausend ausgedrückt hat.
Mit Edkimo wollen wir für Lehrkräfte und Lernende einen geschützten Raum schaffen, in dem sie über das eigene Lernen ins Gespräch kommen. Klar, haben wir auch schon darüber gebrainstormt ob nicht eine KI die Fragebogen-Vorlagen erstellen könnte. Für uns ist das Knowhow der erprobten OER-Vorlagen von Lehrkräften und Bildungsexpert*innen für Lehrkräfte viel wertvoller als ein vermeintlicher KI-Produktivitätsgewinn mit ungewissem Ergebnis. Edkimo ist und bleibt ganz bewusst ein menschliches Tool: von Menschen, für Menschen und mit Menschen gemacht. Ein KI-freier Raum, der Lehrkräfte unterstützt gemeinsam mit ihren Schüler*innen zu lernen, zuzuhören und über das Lernen ins Gespräch zu kommen.
Jessica Zeller und Sebastian Waack
Zum Weiterlesen
Bender/Gebru et al. (2021): On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 https://doi.org/10.1145/3442188.3445922
Comenius, J.A. (1657/2022): Große Didaktik. Die vollständige Kunst, alle Menschen alles zu lehren. Klett Cotta Verlag, Stuttgart.
Gould, S. J. (1988): Der falsch vermessene Mensch. Suhrkamp Verlag, Frankfurt am Main.
Enzensberger, H. M. (2007): Im Irrgarten der Intelligenz. Ein Idiotenführer. Suhrkamp Verlag, Frankfurt am Main.
Hamilton/Wiliam/Hattie (2023): The Future of AI in Education: 13 Things We Can Do to Minimize the Damage. https://osf.io/preprints/edarxiv/372vr/
Irrgang/Klawitter (1990): Künstliche Intelligenz. https://opus.bibliothek.uni-wuerzburg.de/opus4-wuerzburg/frontdoor/deliver/index/docId/3654/file/Klawitter_Kuenstliche_Intelligenz.pdf
Kœnig, G. (2021): Das Ende des Individuums. Reise eines Philosophen in die Welt der künstlichen Intelligenz. Galiani Verlag, Berlin.
La Mettrie, J. O. (1875, 1990): L’homme machine. Die Mensch Maschine. Felix Meiner Verlag, Hamburg.
McCarthy et al. (1955): A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE https://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html
Nuxoll, F. (2023): KI im Unterricht ist kein Selbstläufer! in Zeit Online https://www.zeit.de/2023/33/kuenstliche-intelligenz-schule-unterricht-lehrer-fortbildungen
Zimmerli/Wolff (Hrsg.) (1994): Künstliche Intelligenz. Philosophische Probleme. Philipp Reclam jun, Stuttgart