KI

KI

Wir sind umgeben mit diesem Buzzword. Es macht alles so viel leichter, besser, schneller!

Ohne künstliche Intelligenz scheint es heute nicht mehr weiterzugehen und große Mengen natürlicher Intelligenz werden eingesetzt, um die künstliche Intelligenz so natürlich wie möglich zu machen.

Aber warum begeistere ich mich für gerade so ein Thema, wo ich hier doch sonst hauptsächlich über das Erleben des Lebens mit Autismus berichte?

Weil ich, je mehr ich davon höre und selbst mit KI experimentiere, mich selbst darin erkennen kann.

Ohne einen klaren Auftrag ist KI nutzlos.

Im Grunde ist das wie jegliches Computerprogramm. Es wird aus einem bestimmten Grund erschaffen und jede Routine hat zumindest am Anfang eine Aufgabe.

Die Ein- und Ausgabeschnittstellen sind definiert und nur mit einer ordentlich definierten und brauchbaren Anfrage funktioniert Software, funktioniert KI, funktioniere ich.

Wenn ich nicht irgendeinen Anlass habe, etwas Bestimmtes oder überhaupt irgendetwas zu tun, liege ich da. Einige Hardwaretrigger sind zwar eingebaut, aber auch die werden weniger zuverlässig von ihren Softwaremethoden abgeholt als mir lieb ist.

 

Ohne irgendeine grundlegende Programmierung kommt KI nicht aus.

Wir stellen es uns so einfach vor, dass KI „von selbst“ denkt. Aber alleine die Existenz derselben beruht ja schon mit gewisser Zielsetzung und einem Zweck.
Wir gruseln uns sogar, wenn sich KI diesem Zweck zu widersetzen scheint oder gar über unseren Verstand hinaus agiert. Jedoch würde sie es nie tun, ohne dass sie einen Anlass dazu hätte oder darauf vorbereitet und gelehrt worden wäre, sich diese Handlung anzueignen.

Meine Programmierung wurde durch meine Eltern, meine Familie, die Schule mit ihren Lehrern und Schülern, die Arbeitsstellen, Freunde, Reisen und den daraus resultierenden und inkrementell aufgebauten Wissensschätzen vorgenommen.
Dazu gehört auch, dass ich gelernt habe, eigenständig zu lernen und somit meine eigene Software immer weiterentwickle, die sowohl mit meiner Hardware, als auch mit den Schnittstellen nach außen kompatibel sein soll. Spagat und Paradoxon in einem, so kommt es mir oft vor!

 

Ohne dass bestimmte Regeln vorgegeben wurden, wird KI immer den einfachsten Weg nehmen.

Entweder durch den Programmierer oder durch den Anwender (wenn das so einprogrammiert wurde) kann KI sich an gewissen Leitplanken orientieren, um die Lösung möglichst auf die Vorlieben menschlicher Anwender auszurichten.

Andernfalls bekäme man im KI-Chat nur knappe Sätze oder ewig lange Abhandlungen und keine freundlichen Antworten im selben Ton, wie Menschen es gerne haben.
Dabei scheint es, als wäre die Form der Antwort höherwertig als der bare Inhalt. Klar, anders würden Menschen das auch nicht verstehen und darauf kommt es in erster Linie an.

Von sich aus würde auch keine KI lügen, denn dieses Konzept ist rein menschlich und trotz des zusätzlichen Rechenaufwands scheint es in der Gesellschaft dazuzugehören. Und hier wird es auch widersinnig, dass die Regeln für diesen Regelbruch kaum greifbar sind.

 

Ohne Quellen hätte KI keinen Sinn, denn auf irgendeiner Grundlage basiert jedes Wissen.

Wir kennen es so, dass mancher KI-Dienst direkt die Quellen nennt, aus der Inhalte wiedergegeben werden.

Mir werden Fragen gestellt, wie „Wie siehst du die Welt?“ oder „Wie funktioniert dein Alltag?“ oder „Warum machst du das so?“ und bei denselben (und im Grunde bei jeder anderen Frage) habe ich schon so lange umfassende Antworten geben können, wie mich alle Fragen beginnend mit „Warum“ beanspruchen.

Ich beziehe mich stets auf meine interne Enzyklopädie, die ich mein Leben lang füttere. Wobei ich mit der Zeit so wählerisch bei der Wahl der Wissensquellen bin, sodass ich lieber „sichere“ Informationen sammle (einst Automodelle, Handys oder geografische Fakten, heute allerlei technische Informationen) als die wechselhafte und emotionsgeladene menschliche Informationswelt zu Rate zu ziehen.

Das gebietet der Faszination an genau diesem Unbekannten und an der Königinnendisziplin aber keinen Einhalt, denn mithilfe von Knigge, Carnegie und viel Beobachtung konnte ich auch in menschlich-sozialen Bereichen allerhand Skills aufbauen.

Und dennoch wird bei meinen Äußerungen immer wieder „nicht hilfreich“ angekreuzt, was mir Anlass zum Überarbeiten meines Algorithmus gibt. Wenn „alles okay“ zurückgemeldet wird (auch wenn das unterm Strich weitaus öfter geschieht), besteht kein Grund zur weiteren Verbesserung und ich kann meine Energie woanders investieren.
Daher kommt auch der nervige Fokus auf „das Negative“, weil bei positiver Rückmeldung nichts weiter zu optimieren ist und es schon so passte. Das beobachtet man bei vielen Menschen.

 

Was ganz was anderes: Menschliche Identität und Persönlichkeit

Weiß KI, wie ein Mensch fühlt? Woher weiß KI, wie eine Antwort einem Menschen gefällt? Wie „sieht“ KI den Anwender?
Kann ich erwarten, dass die KI andere Antworten gibt als solche, die auf den Quellen und Kommunikationsvorgaben beruhen?

Der Programmierer füttert die KI, aber wird ein Anwender jemals fordern können, dass die KI „sie selbst“ sein kann?