Transparenz und Vertrauen

Es existiert keine künstliche Intelligenz

Es gibt zunehmend Systeme, die autonome Entscheidungen treffen. Sei es um menschliche Entscheidungen zu verbessern, zu beschleunigen oder einzusparen. Um das möglichst gut verkaufen zu können, sprechen wir von künstlicher Intelligenz, aber sie existiert nicht.

Weder bei IBM‘s Watson noch in einer cleveren Google Deep Mind Applikation, oder irgendwo anders auf der Welt. Auch nicht in China 😉

Der Weg den IBM mit Watson einschlägt, damit zu kokettieren eine über eine gigantische Ansammlung von Algorithmen, von der kein Entwickler mehr weiß, wie sie eigentlich gesamtheitlich funktionieren und deshalb auch nicht hinterfragt werden können, führt ins Vertrauens-Abseits.

Wenn ich in meiner wissenschaftlichen Arbeit nicht begründen kann, auf welchem Weg ich zu meinem Ergebnis gekommen bin, ist sie wertlos

Dabei soll nicht die rasante Entwicklung von effizienten Algorithmen und lernfähigen Softwaresystemen, sowie die Leistungen ihrer Protagonisten in Frage gestellt werden, ganz im Gegenteil.

Wir müssen nur gemeinsam das Dilemma, der nahezu inflationären Verwendung, des Begriffs künstliche Intelligenz lösen.

Aktuell wird ein möglicher Weg, nämlich die Verknüpfung von Algorithmen und lernfähiger Software, zur Entwicklung einer allgemeinen künstlichen Intelligenz, bereits wie das Ziel benannt.

Ein Kniff den wir gern im Marketing benutzen. In diesem Fall führt er jedoch zu Dystopien, Verwirrung und endlosen Diskussionsrunden mit diffusen Ergebnissen.

Was noch in den siebziger- und achtziger-Jahren des letzten Jahrhunderts als Computer unterstützt, bzw. später dann Software gesteuert hieß und somit Vertrauen in die Präzision und Zuverlässigkeit eines Produktes vermitteln sollte, wird jetzt KI unterstützt oder noch schlimmer KI gesteuert genannt.

Da jedoch niemand so recht weiß, was man aktuell unter einer KI verstehen soll, ist es auch sehr schwer, Vertrauen in selbige zu setzen.

Ein schönes Beispiel dafür ist: „Little Britain – Computer says no.“. 😉

Deshalb läßt es sich nachvollziehen, dass dem Verbraucher unlängst mit dem Begriff KI eine intelligente autonome Entscheidung vermittelt werden soll.

Obwohl der Begriff Intelligenz nicht klar definiert ist, ist er durchweg positiv belegt und somit aus der Sicht des Marketings attraktiver.

Die Tatsache, dass ein Wort wie Intelligenz auch immer Konkurrenz implizieren kann (Intelligenter als ich?), nimmt man dabei in Kauf.

Immer neue Erfolge des maschinellen Lernens und der Steigerung der dafür benötigten Rechenpower, sollen uns das Gefühl geben, das diese automatisierten Entscheidungen immer besser werden. Autoren wie Ray Kurzweil befeuern die Diskussion in dem sie behaupten, dass die Singularity eines autonomen Systems bald erreicht sein wird.

Wem wir am ehesten eine gewisse allgemeine Intelligenz zugestehen können, auch wenn wir diesen Begriff bisher nicht genauer definiert haben, ist der Mensch.

Wie Sandra Blakeslee und Jeff Hawkins in ihrem Buch „On Intelligence“ bereits 2004 feststellten, ist es nicht selbstverständlich, dass sich mit lernfähigen Software-Systemen eine dem Menschen ähnliche allgemeine Intelligenz erreichen lässt.

Jeff Hawkins ist heute auf dem Weg, die Funktion des menschlichen Gehirns zu verstehen, einen grossen Schritt weiter, siehe https://numenta.com.

Wie sich diese Erkenntnisse zur Entwicklung einer künstlichen Intelligenz einsetzen lassen, da sind allerdings weiterhin noch viele Fragen offen.

In der ganzen Menschheitsgeschichte haben wir extrapoliert und geglaubt, dass nun bald dieses gesellschaftliche, gesundheitliche oder technische Problem gelöst sein müsste.

Dem war aber nicht immer so. Viele Probleme schleppen wir seit Jahrhunderten mit uns rum und sind keinen Schritt weiter.

Auch folgt, wissenschaftlich betrachtet, jede Entwicklung einer S-Kurve. Man sollte also nicht nur den exponentiell ansteigenden Teil betrachten.

Wie wäre es, wenn wir einfach mal verschnaufen und den Einsatz einer noch nicht entwickelten KI nehmen als das, wofür sie momentan benutzt wird. Ein Euphemismus für autonome Entscheidungen. Entscheidungen die wir gut und richtig finden sollen, weil sie „intelligente“ Entscheidungen sind.

Die Forderung nach ethischen Prinzipien in der künstlichen Intelligenz, lässt sich mit der Bitte, autonome Entscheidungen nach unseren gesellschaftlichen und demokratischen Grundregeln zu treffen, übersetzen.

Nachvollziehbarkeit

Dabei ist die Lösung so einfach.

Wir lehnen eine „Black Box“ in unseren Produkten ab und befinden uns wieder in vertrauten Fahrwassern.

Wir hören auf ein munteres Konglomerat aus Wissensdatenbanken, einem ganzen Zoo aus Entscheidungsbäumen und Algorithmen des maschinellem Lernens, so wie Sprach- und Bilderkennungssystemen, als künstliche Intelligenz zu bezeichnen.

Wir können viel zutreffender von optimierten, lernfähigen Algorithmen sprechen. Dann wäre ein Prozess beispielsweise OLA unterstützt.

Als Hersteller, erkläre ich, auf welcher Basis autonome Entscheidungen getroffen werden und die Kunden können mir und meinen Angeboten wieder vertrauen.

Nehmen wir als komplexes Beispiel das selbstfahrende Auto. Eine Vielzahl von Systemen entscheidet, wann, was passieren muss, damit das Ziel sicher erreicht wird. Auch hier können wir von optimierten, lernfähigen Algorithmen sprechen.

Stellen wir uns folgenden fiktiven Werbespot eines Automobilbauers vor:

Eine glückliche Familie, wird im selbstfahrenden SUV, quer über das Land, sicher und zielgenau an ihren Urlaubsort gefahren. Das älteste, von der ruhigen Fahrt sehr beeindruckte Familienmitglied, drückt neugierig auf einen Knopf mit der Aufschrift: HOW?

Bei jedem Vorgang, Bremsen oder ein unerwarteter Richtungswechsel, erscheint jetzt ein neuer wohlwollender „Geist“ im Fahrzeug. Dieser stellt die jeweilige Ingenieurin dar, die diesen Prozess ursprünglich programmiert, beziehungsweise im Team mit der Programmiererin, eine zur Aufgabenerfüllung effektive, lernfähige Software trainiert hat.

So langsam aber sicher fährt ein ganzer Bus mit unterschiedlichen Experten mit. Jeder Experte wird sowohl zum Schutzengel, als auch zum Beobachter, der während der Reise noch weiter seine Arbeit perfektioniert.

Am Ziel angekommen winken und verabschieden sich dann ein ganzes Team von Experten aus aller Welt (und Epochen), von unserer beeindruckten Familie und lösen sich wie sympathische Harry Potter Schulgeister auf, um die nächste Fahrt zu betreuen.

So wird klar, dass hinter all diesen autonomen Entscheidungen eine Vielzahl von Menschen steht, die die Technologie ständig weiterentwickeln und verbessern.

Idealerweise sogar tatsächlich von den Kunden zu kontaktieren sind, um gemeinsam über Erlebnisse mit den Produkten zu sprechen. So schafft man nicht nur Vertrauen, sondern zeigt auch, was die neuen Jobs sein werden, die im digitalen Zeitalter entstehen, um eventuell obsolet gewordene Arbeitsplätze zu ersetzen.

Die Aufgabe der Schulen und Universitäten besteht bereits jetzt darin, nicht alle Menschen zu Programmierern, sondern weiterhin ihren Neigungen und Fähigkeiten hin auszubilden. Mit dem einzigen Unterschied eine gemeinsame Sprache zu finden, damit sich z.B. ein Künstler oder Jurist, bereits in einem frühen Stadium einer gemeinsamen Projektentwicklung, mit einem Algorithmen Entwickler verständigen kann.

Wenn Unternehmen umdenken und zeigen, dass Menschen Systeme entwickeln, Menschen die sich an unsere gesellschaftlichen und demokratischen Grundregeln halten, dann entsteht Vertrauen in die komplexesten Produkte.

Diese Menschen, Mitarbeiter und Ingenieure sorgen dafür, dass Regeln, auch in Verbindung mit Verantwortung und Haftbarkeit, eingehalten werden.

Rein finanzielle und gewinnoptimierende Entscheidungen, die gegen obige Grundregeln verstossen, entsprechen nicht ihrer Aufgabenstellung oder Arbeitsplatzbeschreibung und müssen auch nicht in künftige Systeme integriert werden.

Wir können also vieles lassen, wie es ist. Nur müssen wir aufhören, schwarze Kisten als intelligente Entscheider deklarieren zu wollen.

Deshalb liebe Marken-Verantwortliche, lasst uns aufhören den Begriff KI für diverse Feature und Prozesse zu benutzen.

Damit erweisen wir uns nur einen Bärendienst und erzeugen zu Recht kein Vertrauen beim Verbraucher.

Künstliche Intelligenz KI, nein danke – optimierte lernfähige Algorithmen OLA, ja bitte. 😉