Inside.it.ch News RSSEs vergeht kaum noch eine Woche, in der wir keine Diskussionen über Wohl und Weh im Zusammenhang mit "der KI" führen. Und das nicht nur in den sozialen, sondern auch in den klassischen Medien. Auslöser hierfür ist das Hype-Thema schlechthin: ChatGPT.Zugegeben: ChatGPT hat es in wenigen Monaten geschafft, unseren privaten und beruflichen Alltag massiv zu verändern. Dabei war Künstliche Intelligenz schon längst unter uns: im Auto, auf Computern und Handys und auch im Haushalt. Und Ihnen ist doch sicher aufgefallen, die die täglichen Helfer immer schneller und schlauer wurden, oder nicht?Doch erst die Veröffentlichung von ChatGPT Ende 2022 hat dazu geführt, dass der Einsatz von KI nun zum ersten Mal im ganz grossen Stil diskutiert und hinterfragt wird. Die Kernfrage betrifft den ethischen Einsatz von Künstlicher Intelligenz durch Hersteller von KI-Anwendungen – aber auch durch deren Nutzerinnen und Nutzer. Immer lauter wird der Ruf nach einem moralischen Kompass beziehungsweise nach Regulierungsvorgaben durch den Gesetzgeber. Aber haben wir alle nicht bereits viele Grundlagen für die Beurteilung zur Hand?DatenqualitätDas Fundament von KI-basierten Systemen sind riesige Datensammlungen, die den Kontext repräsentieren, in dem man eine KI-basierte Lösung zum Einsatz bringen will. Aus einer grossen Menge von vorgegebenen Situationen und Daten erlernt die KI dann Muster von typischen Lösungen für die unterschiedlichsten Probleme. Das bedeutet aber auch, dass die erzeugten Resultate die Qualität der Daten und die darin enthaltenen Haltungen, Meinungen und Bevorzugungen abbilden und wiedergeben. In der KI redet man in diesem Fall von einem "Bias", das heisst einer tendenziösen Datenlage. Beispiele für einen Daten-Bias sind:Eine bestimmte Population wurde bei der Erfassung der Trainingsdaten unterrepräsentiert. Diese Gruppe ist infolgedessen auch bei der Resultat-Generierung durch die trainierten KI-Anwendungen nicht ausreichend berücksichtigt.Trainingsdaten beinhalten mehrheitlich nur Aussagen, die eine bestimmte Hypothese stützen. Anderweitige Annahmen werden vom KI-System nicht ausreichend berücksichtigt.Extremfälle, die in einem ansonsten ausgewogenen Set an Trainingsdaten einbezogen werden, verzerren die Datenlage, die dann kein repräsentatives Gesamtbild mehr wiedergibt.Mein erstes Fazit: "Traue keiner Statistik, die Du nicht selbst hinterfragt hast."Transparenz, Kontrolle, Vertrauen und NachvollziehbarkeitÜberzeugen KI Systeme durch überraschend gute Resultate, beginnt man den Output nicht mehr zu hinterfragen – bis man mit einem groben Fehler konfrontiert wird. Das mag für den "Hausgebrauch" noch angehen, kann aber auch schnell zu riskanten Situationen führen. Beispiele hierfür sind fehlerhafte Gebrauchs- oder Bau-Anweisungen, inkorrekte medizinische Ratschläge oder Fehlsteuerungen.Die Schlussfolgerung aus solchen Erfahrungen muss sein, dassdie Nutzung von KI für die Erarbeitung von Arbeitsaufträgen oder die Resultate als solche transparent gemacht werden muss beziehungsweisevor der Verbreitung KI-generierter Ergebnisse eine Qualitätssicherung erfolgen muss.Alternativ ist es durch neuere Entwicklungen im Bereich "Explainable AI" auch möglich, gleichzeitig mit den Ergebnissen auch Quellenangaben auszuspielen, die eine Referenz zu den verwendeten Datengrundlagen herstellen. Diese Entwicklung steht jedoch noch ziemlich am Anfang.Sind derartige Kontrollmöglichkeiten gegeben, kann der Endnutzer selbst entscheiden, ob und wie weit er den Angaben der KI vertrauen will bzw. ob die Ergebnisse nachvollziehbar sind.Deshalb mein zweites Fazit: "Vertrauen ist gut, Kontrolle ist besser."EinsatzgebieteDie letzte und vielleicht komplexeste Frage in Bezug auf Ethik bei der Verwendung von KI-basierten Lösungen bezieht sich auf deren Einsatzgebiete. Dabei fällt auf, dass zu jedem neuen KI-Businesscase neben dem ursprünglich gewünschten Nutzen eine Vielzahl an "toxischen" Effekten vorab diskutiert wird. Mein erster Gedanke ist dann immer: Wo stünden wir heute, wenn der Mensch für die "Erfindung" von Feuer vor dem Rollout zunächst alle Anwendungsgebiete und Use Cases evaluiert und reguliert hätte?Wenn es unsere Annahme ist,dass die Gefahren und Risiken von KI grösser sind als der Nutzen unddass vor ihrem Einsatz eine KI-Lösung zunächst möglichst vollständig auf ihre Risiken und das Schadenpotenzial hin untersucht werden muss,sollten wir dann nicht besser die Finger von dieser Technologie lassen, bis wir ein besseres Verständnis der Chancen und Risiken haben, die dann die Grundlage bilden für weitreichende Regelungen zum Einsatz der KI?Als Optimistin neige ich zu der Vorstellung, dass wir in der Lage sind, interessante und nutzenstiftende Neuerungen zu entwickeln und parallel dazu Regeln zu definieren, die schädliche Auswüchse eingrenzen und kontrollieren. Schliesslich haben wir uns seit der Erfindung des Feuers doch auch mächtig weiterentwickelt, oder nicht?Und deswegen mein drittes Fazit: "Man sollte das eine tun und das andere nicht lassen." Und dabei am besten immer schön den Verstand einschalten.Soko Maier ist die Software-Kolumne von inside-it.ch. Hier schreibt Karakun-CEO Elisabeth Maier regelmässig über Themen rund um Software und Programmiersprachen.

weiterlesen: RSS Quelle öffnen