TEIL 6 - ARTIFICIAL INTELLIGENCE - 3 FORMEN

Philosophischer und technischer Ansaz zur künstlichen Intelligenz und deren 3 Stufen.

Artificial Intellgence © Bild (Ausschnitt) Geralt

Es gibt viele Formen der Künstlichen Intelligenz (Artificial Intelligence AI) und mehr und mehr Spezifikationen werden benützt, um sie zu definieren. Mehr als 30 sind jetzt bereits festgelegt.
Um dies herunter zu brechen, gibt es zwei Aspekte, die AI zu betrachten, die zum gleichen Resultat führen (was immer ein gutes Zeichen ist) und uns mit nur drei (Grund)formen der AI zurücklassen.

Diese Aspekte sind die technische und die philosophische Annäherung.

PHILOSOPHISCHE ANNÄHERUNG AN DIE AI

(Alle Fachbegriffe in diesem Kapitel stammen von Professor Nick Bostrom von der University of Oxford https://nickbostrom.com/)

Wenn man die menschliche Intelligenz mit der nicht-menschlichen Intelligenz (eine davon ist die Artifical Intelligence) vergleicht, kann man diese einfach in 3 Fromen der AI unterteilen


Narrow AI (ANI) (niedrige AI)

Dies ist die Stufe der AI, die wir bisher erreicht haben.  Spezielle Aufgaben können erledigt werden, zum Beispiel Bilderkennung, GO- oder Schachcomputer (sogar besser als jeder Mensch), aber die Fähigkeiten der Computer ist ganz eng auf diese eine Aufgabe redutziert. Manchmal auf ganz wenige zusätzliche Aufgaben.

Wenn sie den Computer, der gerade besser Go gespielt hat als der beste menschliche GO-Meister die Frage stellen: „Wie spät ist es“ (gar nicht daran zu denken, ihn die beste Route zum Mars ausrechnen zu lassen) wird er ihnen keine Antwort geben.

Wenn sie Mycroft AI (ein open source Sprachassistent https://mycroft.ai/ ) fragen, bekommen sie Antworten auf Fragen wie „Wie spät ist es“, „Welches Wetter haben wir“, Mycroft AI wird ihren Browser öffnen und auch Witze erzählen. Einige Aufgabenbereiche.

Vom philosophischen Aspekt her – verglichen mit einem Menschen – ist es eine niedrigere Form der Intelligenz.


General AI (AGI) (generelle AI)

Wir sind noch weit davon entfernt, diesen Punkt zu erreichen. Es bedeutet eine gleiche Form der Intelligenz als die der menschlichen Intelligenz, enthält Kreativität, Selbsterkennung und natürlich die Fähigkeit sehr viele Aufgaben erledigen zu können. (Und hoffentlich auch Humor zu besitzen)
Die große Frage dabei ist: Wie würde diese Art einer Intelligenten Persönlichkeit auf die Menschen reagieren. Speziell wenn sie mit Menschen konfrontiert sind, die bis jetzt noch wirklich große Probleme haben (alle) andere(n) Menschen, deren Religion, Kultur etc. zu akzeptieren.

Der Unterschied zwischen zwei Menschen ist aber relativ gering, vergleicht man sie mit der Differenz zwischen menschlicher und maschineller Intelligenz (AGI)

Ein Computer hat keinen Körper, keine vergleichbare Gefühlswelt, kann nicht schmecken oder riechen. Mit anderen Worten, ein überwältigend großer Anteil an Erfahrungen, die jeder Mensch hat, bis er seine volle Intelligenzstufe erreicht hat, fehlen komplett.

Versuchen sie einmal, einem Menschen, dessen Geruchssinn nicht funktioniert, zu erklären, wie eine Rose riecht. So ein Mensch wird sicher auch nicht von z.B. Erbrochenem zurückschrecken. Wie sollte er auch. Seine Reaktionen würden sich in diesem Punkt also ganz klar von denen eines „normalen“ Menschen unterscheiden.

Betrachtet man (in der Computer Tomographie) wie stark unterschiedlich das Gehirn eines Pianisten sich entwickelt, der die Hände verwendet, um Musik zu spielen und wie völlig unterschiedlich dieses Gehirn dann reagiert, wenn es einem anderen Klavierspieler zuhört, hat klare Beweise, dass jede körperliche Erfahrung enorme Auswirkungen auf unser Gehirn und damit unsere Intelligenz hat.

Diese Unterschiede müssen daher auch in extremen Unterschieden in der Reaktion von AGI auf verschiedene Stimuli ergeben, vergleicht man sie mit einem Menschen.

Mehr noch, wir können uns eigentlich gar nicht vorstellen, wie extrem diese Unterschiede kumuliert sein würden und in wie viele Teilbereiche des Lebens diese Unterschiede hineinreichen würden.

Meiner Meinung nah ist die sehr naive Erwartung, die AGI würde überhaupt dem Menschen vergleichbar sein, völlig ohne jede Grundlage.

Ich denke, die kritische Annäherung von – zum Beispiel – dem ‚Future of Humanity Institute of the University of Oxford‘ (https://www.fhi.ox.ac.uk/) ist die einzig richtige.

Wenn man in Betracht zieht, dass Menschen, geschichtlich betrachtet, sehr starke Tendenzen aufwiesen, aus allem eine Waffe zu machen, wird sich eine sehr starke Tendenz, das falsche zu tun ergeben, wenn Generelle AI entwickelt wird. Ein sicherlich völlig falsches Ziel ist die militärische AGI. (Aber dahinter steckt die größte Investitionsssumme)

Dies hat absolut nichts mit ‚Ängstlichkeit‘, wie die Befürworter der unbeschränkten Entwicklung der AGI gerne argumentieren, zu tun, sondern ist einfach die breitere und mehrdimensionale Betrachtungsweise des Problems dahinter: Der Mensch, der es entwickelt.
Die Science fiction, speziell Isaac Asimov mit seinen 3 (später 4) Gesetzen der Robotik  (https://en.wikipedia.org/wiki/Three_Laws_of_Robotics) hat sich damit bereits vor fast 70 Jahren auseinandergesetzt. Besonders was unabdingbar sein müsste, wollte man eine AGI entwickeln, die mit Menschen vergleichbar ist.


Super AI (ASI)

Einfach ausgedrückt eine „überlegene“ künstliche Intelligenz, als die menschliche Intelligenz.

Alles oben gesagte bleibt gültig.

Zusätzlich dazu, können wir NICHT vorhersagen, wie diese sein kann, so wie ein Huhn sich sicherlich nicht vorstellen kann, wie ein menschliches Gehirn arbeitet, wie Intelligenz funktioniert, dass es dabei sogar einen vollständig anderen Zugang zur ganzen Welt gibt. (Was auch immer „ganze Welt“ für ein Huhn bedeuten mag.)

Wenn man darüber spekuliert, könnte es vielleicht ein unterhaltsamer und faszinierender Denkansatz für die ASI sein, sich vorzustellen, wie ein derartig primitiver Mensch überhaupt das Leben meistert, ohne imstande zu sein „wirklich“ zu denken.

Ich habe allerhöchste Zweifel daran, dass sich für die ASI irgend eine Notwendigkeit ergäbe, mit solchen primitiven Lebnsformen zu interagieren. Wann haben sie denn das letzte Mal mit einer Schnecke in ihrem Garten gesprochen? Haben sie sich eine Antwort erwartet? (Falls ja, sollten sie professionelle Hilfe in Anspruch nehmen!)

 

TECHNISCHER ANSATZ ZUR AI

Zuerst, um Verwirrung zu vermeiden, vergleiche ich die Fachbegriffe (termini technici) der philosophischen und der technischen Abteilungen.

Narrow (niedrige) AI (ANI) = weak (schwache) AI
General (generelle) AI (AGI) = strong, true, real (echte, starke) AI
Super AI (ASI) = Super AI (multi dimensional AI (MDAI) , was mein eigener Begriff dafür ist.


Narrow (weak, schwache) AI

Heutzutage gibt es bereits sehr viele schwache AI am Markt, oder zumindest beinahe Marktreife Produkte.

Sprachgesteuerte Geräte (Mycroft AI [die einzige open source AI, bei der das Eigentumsrecht alles gesprochenen beim Sprecher bleibt] Alexa, Google) sind – da ein Markt dafür besteht – die derzeit am verbreitetste schwache AI.
Weil Unternehmen (Amazon, Google usw.) hoffen, ihre Umsätze damit zu steigern, verkaufen sie billige Gereäte, die den Menschen dazu verleiten, vielleicht das Musikstück zu spielen, das er noch nicht gekauft hat, was er aber sofort und ohne Probleme tun kann. Weil die meisten dieser Geräte verheimlichen, wie sie programmiert sind, kann kein uneingeweihter wissen, was sie alles belauschen und was sie mit diesen ganzen Informationen dann tun.

Es gibt viele andere Beispiele wie optische Erkennungssoftware (die, zu meiner großen Überraschung mehr und mehr von der AI ausgeklammert wird, nur weil sie funktioniert und ‚routine Technologie‘ darstellt), Strategiespiele, selbstfahrende Fahrzeuge, medizinische Diagnose (Histologie) …

Heutzutage kann man sich relativ einfach sein eigenes kleines Roboter Auto bauen (https://blog.ubuntu.com/2017/12/19/your-first-robot-a-beginners-guide-to-ros-and-ubuntu-core-1-5)


General (strong, real, starke) AI

Beim Versuch, starke AI zu entwickeln, gibt es meiner Meinung nach ein wirkliches Hindernis: Wir verstehen nicht einmal, wie unser eigenes menschliche Intelligenz aufgebaut ist, was die fundamentalen Notwendigkeiten eines Gehirnes ausmacht, um ‚intelligent‘ zu werden. Je näher wir uns mit dem Problem auseinandersetzen, desto verwaschener scheinen die Grenzen zu werden. Ist ein Delphin intelligent? Und was sind die Unterscheide zwischen Delphin-Intelligenz und menschlicher Intelligenz.

Es ist nicht nur die höhe des %satzes, welchen Teil des Gehirnes wir nutzen (ein Delfin nutzt mehr als ein Mensch) oder, wenn doch, dann ist der Delphin intelligenter als der Mensch.

Natürlich ist es eine frage, wieviele Neuronen im Gehirn arbeiten und miteinander arbeiten. Eine Fruchtfliege kann nicht intelligenter als ein Mensch sein. Zu wenig Gehirnzellen.

Ist es die Anzahl der Fähigkeiten (Fertigkeiten) die wir addieren und ‚irgendwie‘ dadurch intelligent werden? Jeder Intellgenztest besteht darin, für das Lösen von Aufgaben Punkte zu vergeben und zu addieren. (Dabei werden viele lebensnotwendigen Fähigkeiten außer Acht gelassen. Die Fähigkeit, in der Wüste Wasser zu finden, was jeder Buschmann oder Aborigine perfekt beherrscht, oder zu erkennen wo die Eisoberfläche so dünn ist, dass man sie zum Fischen aufhacken kann fehlen in jedem Test. In der entsprechenden Umgebung ist es aber überhaupt nicht intelligent, diese Fähigkeiten nicht zu besitzen.)

Aber es könnte auch einen (mehrere) Zusatzfaktoren, auf die wir derzeit noch keinen Finger legen können und sagen. Wenn dieser Zusatzfaktor zutrifft, ist das Gehirn intelligent. Wenn wir also mit einem geschädigten Gehirn konfrontiert sind, geben wir den Zusatzfaktor dazu und es wird Intelligent.

Vielleicht gibt es aber so einen Zusatzfaktor gar nicht und es ist einfach nur eine Frage der genügen hohen Zellanzahl, Gehirnchmai, Neuronen. Und natürlich dem Gebrauch derselben.


Super (multi dimensionale) AI

Da wir nicht wissen, wie wir eine starke AI bauen können, wissen wir schon gar nicht, wie wir eine multi dimensionale (Super) AI bauen können.

Wenn wir Glück haben (echt?) sind wir aber gar nicht dazu gezwungen, es zu wissen.

Da bereits heute Computer neue Computerchips entwerfen besteht eine starke Möglichkeit, dass Comuter mit starker AI irgendwann die multi dimensionale AI bauen wird. Oder IHRE multi dimensionale AI?)

Der andere vorstellbare Entstehungsprozess ist meiner Meinung nach der viel plausiblere und wir sind mittlerweile derartig an die Grundvoraussetzung gewöhnt, dass wir sie übersehen könnten:

Wir haben ein stärker und stärker wachsendes Netzwerk (Internet) gebaut, mit dem Computer aller Art weltweit verbunden sind. Das Netz wächst ständig. Die Anzahl an Computern, Smartphones, Tablets aber auch unintelligenter Dinge wie Aquarien, Kühlschränke, Drucke etc. wächst schnell.

Bis heute ist die Fähigkeit miteinander zu ‚sprechen‘ eingeschränkt. Das Smartphone kann mit der Heizung kommunizieren, um die Raumtemperatur zu erhöhen, das Türschloss zu öffnen, die Jalousie herunter zu lassen, den Backofen zu heizen ….

Mit menschlichen Gehirnbegriffen verglichen, haben wir mehr und mehr ‚Zellen‘, mehr und mehr sehr ‚spezifische Neuronen‘ aber bis jetzt gibt es keine ‚interaktive‘ Zusammenarbeit, was Lernen bedeuten würde.

Nunmehr verbinden wir bereits mehr und mehr schwache AI aller Art mit diesem Netzwerk. Jedes davon (definitionsgemäß) mit Spezialfähigkeiten. Und viele davon verstehen die menschliche Sprache um sie in Computercode zu übersetzen. (Eine Frage an Siri, Alexa, Google, Mycroft wird über das Netzwerk übertragen, verarbeitet und in Maschinencode übersetzt, den unser Gerät versteht und ausführt.)

(Ein Experiment mit Computern, die miteinander kommunizieren sollten, hat zu einem kleinen Desaster geführt, weil sie eine Sprache entwickelt haben, die kein Mensch verstanden hat und man hat die Computer dann abgeschaltet)

Wenn wir es zusammenbringen, eine starke AI zu erzeugen, wird diese höchstwahrscheinlich mit dem Netz verbunden sein und sie wird sicher imstande sein, die menschliche Sprache zu sprechen. (‚Sprechen‘ in dem Sinne, eigene Gedanken auszudrücken und dies auch anderen Geräten mitzuteilen)

Es könnte so etwas wie eine kritische Masse geben und die Tatsache, dass die starke AI mit dem Netz verbunden sind könnte ergeben, dass sie aus eigenem Willen, mit eigenen Gedanken und eigenen Zielen Verbindung herstellen.

Mit kritischer Masse meine ich einen Punkt, ab dem die Anzahl der starken AI sich wirklich zusammenschließen und automatisch eine höhere Form der Intelligenz (die Definition von Super AI) ergibt. Da wir schon bei der Menschlichen Intelligenz nicht wissen, wie sie wirklich ‚entsteht‘, wissen wir schon gar nicht, wie Künstliche Super Intelligenz entsteht.

Weil die Grundvoraussetzung die Vernetzung untereinander ist, benütze ich den Ausdruck ‚multi dimensionale AI‘.

Zurück zu Homepage
A - A

 

C.E.Z-Software HgmbH
Wienerfeldgasse 34
1100 Wien

mail info(at)cezsoft.com

 

                                        Neu 10er Block im Shop