Den Begriff KI hört man heutzutage täglich. Überall wird davon gesprochen, was KI alles kann und welche Gefahren sie mit sich bringt. Doch wie funktioniert eine solche KI eigentlich genau? Im Informatikunterricht gingen wir dieser Frage auf den Grund. Wir haben erst angeschaut, wie neuronale Netze funktionieren und diese trainiert werden können. Neuronale Netze sind der Baustein der meisten KIs. Auch Chatbots, wie ChatGPT oder Bildgenerierungssoftware, wie DALL-E, basieren auf neuronalen Netzen. Neuronale Netze kann man sich als Algorithmen vorstellen, die wie unser Gehirn funktionieren und basierend auf mehreren Eingabewerten einen oder mehrere Ausgabewerte berechnen. Bei Chatbots ist dies etwas komplizierter. Der Text wird erst in Tokens eingeteilt. Tokens können einzelne Wörter oder auch kleine Wortgruppen sein. Zu jedem dieser Tokens wird dann ein Vektor berechnet, der diesem Token entspricht. In diesen Vektoren sind dann viele verschiedene Eigenschaften der Tokens gespeichert. Beispielsweise die Wortart, der Kasus, die Zeitform oder ob zusätzliche Wörter gebraucht werden, wie beispielsweise Hilfsverben oder reflexive Verben. Natürlich wird auch die Bedeutung der Wörter gespeichert. Durch diese Vektoren kann man auch Wörter zusammenrechnen und Unterschiede von Wörtern berechnen. So ergibt Deutschland – Italien + Mussolini ≈ Hitler. Mit diesen Vektoren als Eingabewert berechnen neuronale Netze die darauffolgenden Wörter; diese werden dann wieder zur Berechnung der darauffolgenden Wörter verwendet, und so entsteht ein Text. Je besser die KI, desto besser ist der Zusammenhang des Textes. Gute KIs haben heutzutage meistens zusätzliche Hilfen, damit sie grössere Bedeutungen erkennen können und auch Rückschlüsse auf früher im Text erwähnte Dinge ziehen. Das Ganze muss der KI jedoch zuerst gelernt werden. Dies wird gemacht, indem man der KI riesige Datenmengen an Text füttert. Die KI passt dann die neuronalen Netze und die Algorithmen der Vektorerstellung basierend auf dem Fehler der Ausgabe selbständig an. Der Fehler ist einfach gesagt der Unterschied zwischen dem berechneten Wort der KI und dem Wort, welches im Text dort steht. Wir erinnern uns: Man kann mit Wörtern als Matrizen Unterschiede berechnen.
Damit die KI einen guten Text generieren kann, muss der Trainingsdatensatz von hoher Qualität sein. Was eine hohe Qualität bedeutet, kommt auf die Ansprüche der KI an. Schlussendlich möchte man mit einem grossen Datensatz trainieren, der grammatikalisch und faktisch korrekt ist. Diese beiden Faktoren stehen in Konkurrenz miteinander, denn je mehr Text man verwenden will, desto schlechter wird dessen Inhalt. Häufig wird für diese Trainingszwecke Text von Webseiten aus dem Internet verwendet, da dieser bereits in digitaler Form bereitsteht. Häufig werden deswegen Texte aus sozialen Medien genutzt, da diese in grosser Menge im Internet verfügbar sind. Diese Texte bringen jedoch einige Risiken mit sich, über die ich gerne sprechen möchte. Ein grosses Problem ist, dass die KI Fehlinformationen von uns Menschen übernimmt, da diese Teil unserer Texte sind. Doch nicht nur Fehlinformationen, sondern auch Vorurteile werden übernommen. Dies klingt auf den ersten Blick nicht schlimm, da wir diesen Vorurteilen auch in den sozialen Medien begegnen. Es gibt jedoch einen grossen Unterschied zwischen Texten in den sozialen Medien und Texten, die von der KI generiert werden: die Glaubwürdigkeit. Den meisten Menschen ist bewusst, dass soziale Medien überflutet sind von Fehlinformationen und Vorurteilen. Wenn wir wissen, dass wir mit einem anderen Menschen sprechen, dann erkennen wir Vorurteile und Fehlinformationen viel schneller, da wir unsere Meinung und unser Weltwissen als gleichwertig wahrnehmen. Natürlich gibt es Ausnahmen, wenn man beispielsweise mit einem Fachexperten spricht, aber grundsätzlich nehmen wir unser Wissen und unsere Meinung als gleichwertig an. Bei einer KI ist dies jedoch etwas anders. Für viele Personen sind Chatbots wie ChatGPT eine Quelle des Wissens. Für jede Frage wird ChatGPT konsultiert und dessen Antwort ohne grosses Nachdenken als Wahrheit abgestempelt. Da diese Antwort jedoch auf den Aussagen anderer Menschen basiert, können sich auch hier Fehlinformationen und Vorurteile einschleichen. So werden Fehlinformationen zu Fakten und Vorurteile verstärkt. Dies führt dann wiederum zu mehr Fehlinformationen und Vorurteilen in den sozialen Medien, die dann wiederum bei der KI landen. Um diesen Teufelskreis zu durchbrechen, ist es wichtig, dass man realisiert, dass auch KIs Fehler machen und alle Fakten überprüft. Die KI ist kein allwissender Gott. Die KI ist ein Werkzeug, und so sollte man die KI auch benutzen. Wenn die KI mit Fakten arbeiten soll, dann sucht man diese am besten selbst zusammen und liefert sie der KI, damit diese basierend auf den korrekten Fakten ihre Aufgabe erledigen kann.