Aus der heutigen Rhein-Neckar-Zeitung:
Finde ich bemerkenswert, denn der KI-Fachmann betont klar, daß Computer und menschliches Gehirn zweierlei sind. Kreativität findet sich allein beim Menschen, und die "funktionieren" nun einmal nicht nur mathematisch.
Eben in den Nachrichten im DLF wurde, ähnlich wie das von Gurnemanz oben gemacht Zitat, eine Einschätzung von Ingenieur Prof. Reimund Neugebauer, Präsident der Fraunhofer-Gesellschaft, wiedergegeben. Demnach sei die Künstliche Intelligenz noch sehr weit von der menschlichen Intelligenz entfernt, also von Bewusstsein, Inspiration, ... Gleichwohl macht er den Vergleich mit dem menschlichen Gehirn. Das neuronale Netzwerk im menschlichen Gehirn wäre noch nicht gut genug verstanden, um es künstlich nachzubilden.
Im Umkehrschluss leite ich daraus ab, dass auch er davon ausgeht (oder jedenfalls nicht ausschließt), dass dies in (nicht-naher) Zukunft erreicht wird bzw. man sich dem stark annähert. Durch (künstliche) Simulation der neuronalen Netzwerke des menschlichen Gehirns.
maticus
Zum Zitat von Lukowicz: Bei so etwas muß man beachten, daß das grundsätzlich gefiltert ist. Erstens geschieht das durch den Urheber selber, der natürlich Dinge nicht sagt, die ihm so selbstverständlich sind, daß sie ihm nicht erwähnenswert scheinen (oder genauer, er gar nicht auf die Idee kommt, daß sie gesagt werden müßten), und der (ebenfalls unbewußt) die Welt durch die Brille seiner eigenen Expertise betrachtet, was ihn möglicherweise zu einem anderen Weltbild kommen läßt, als unter Verwendung einer anderen Expertise. Zum zweiten geschieht diese Filterung durch den Journalisten bei der DPA, der die Meldung verfasst hat, welcher die Aussagen, die tatsächlich getroffen wurden, bestenfalls so wiedergibt, wie er sie verstanden hat, und vielleicht auch da nur eine Auswahl davon, und er schlechtestenfalls diese Auswahl durch seine eigene Meinung zum Thema färbt. Das ist ein klassisches Hermeneutikproblem, das überall auftritt, aber besonders da, wo hochspezialisiertes Fachwissen durch Laien medial aufbereitet wird.
Zitat von DPAMan sollte aber nie vergessen, dass KI nur komplexe mathematische Verfahren auf komplexe Daten anwende. "Mit menschlicher Kreativität hat das rein gar nichts zu tun", sagte Lukowicz der Deutschen Presse-Agentur.
Um diese Aussage treffen zu können, müsste er wissen, wie menschliche Kreativität genau funktioniert. Woher weiß er das? Und: Wenn er es weiß, warum hat er es noch nicht publiziert? Der Nobelpreis in Medizin wäre ihm sicher. Korrekt wäre die Aussage: "Wir wissen nicht, ob die angewendeten KI-Prozesse Entsprechungen in der menschlichen Kreativität haben..." oder gar "Ich weiß nicht, ob das irgendwas mit menschlicher Kreativität zu tun hat". Klingt halt weniger expertös...
Zitat von DPADie heutige KI – oder speziell das maschinelle Lernen, was ein Untergebiet der KI ist – hat wenig mit menschlicher Intelligenz zu tun", sagte Lukowicz. "Viel mehr geht es darum, in großen Datenmengen Muster zu finden und diese auf komplexe mathematische Funktionen abzubilden." Diese Funktionen können dann dazu verwendet werden, neue ähnliche Muster zu generieren.
Das Problem hier ist ein unscharfer Intelligenzbegriff (kommt noch). Im Folgenden redet er von Mustererkennung - einem seiner Arbeitsschwerpunkte, wenn ich das richtig verstanden habe. Das wäre einer der erwähnten Filter: Die Expertisebrille. Wie er richtig anmerkt, ist Mustererkennung aber nur ein Teilgebiet der KI. Auch menschliche Intelligenz beschränkt sich nicht auf Mustererkennung und Anwendung der gelernten Muster auf die Generierung ähnlicher Muster. Insofern läßt sich maschineller Mustererkennung mit menschlicher Intelligenz in toto natürlich nicht vergleichen. Das ist ein zweiter Filter: Die beiden zu vergleichenden Objekte nicht auf Äquivalenz bezüglich des scopes der fraglichen Merkmale zu überprüfen. Ich weiß nicht, ob das Absicht ist oder unterbewußt.
Zitat von DPAAm Ende bleibe ein Computer ein Haufen elektrischer Schalter. "Egal, wie komplex die mathematischen Methoden sind, die darauf laufen.
Korrekt. Die Aussage "Am Ende bleibt ein menschliches Gehirn ein Haufen neuronaler Schalter. Egal, wie komplex die Prozesse sind, die darauf laufen" ist aber ebenso korrekt. Der Unterschied ist nur der, daß wir die Funktionsweise des Systems "Computer" en Detail verstehen, das Gehirn aber bislang vergleichsweise nur sehr rudimantär.
Zitat von NeugebauerGleichwohl macht er den Vergleich mit dem menschlichen Gehirn. Das neuronale Netzwerk im menschlichen Gehirn wäre noch nicht gut genug verstanden, um es künstlich nachzubilden.
eben.
Zitat von NeugebauerDemnach sei die Künstliche Intelligenz noch sehr weit von der menschlichen Intelligenz entfernt, also von Bewusstsein, Inspiration, ...
Damit wären wir bei dem Punkt, daß "Intelligenz" ein sehr weitgefasster Begriff ist, bei dem es sinnvoll wäre ihn ein wenig zu differenzieren. Bereits 1990 wurde hier die Unterkategorie soziale Intelligenz eingeführt als Fähigkeit sich innerhalb von sozialen Gruppen angemessen und zielgerichtet zu verhalten und die entsprechenden Signale der Gruppenmitglieder korrekt zu decodieren, sowie die Unterkategorie emotionale Intelligenz als Fähigkeit, sich in andere Menschen hineinzufühlen und entsprechende Emotionen zu erkennen und selbst zu empfinden. Dazu kommen sensorische Fähigkeiten zur Signalverarbeitung und Mustererkennung und das weite Feld der kognitiven Fähigkeiten, im speziellen das Aufnehmen, Speichern, Abrufen, Kombinieren und Anwenden von Wissen im weitesten Sinn. Auf dem Gebiet der sensorischen Fähigkeiten sind die Maschinen gerade dabei, den Menschen zu überholen, nicht zuletzt deswegen, weil ihnen Kanäle zur Verfügung stehen, die wir nicht haben, etwa RADAR, Ultraschall, Infrarot, UV, Magnetismus, GPS etc. und die beliebige Vernetzung von Informationen aus u.U. weit entfernten Sensoren. Ausserdem haben technische Sensoren mittlerweile eine höhere Auflösung und Empfindlichkeit als die uns zur Verfügung stehenden Sinne. Auch bezüglich der kognitiven Fähigkeiten sind die Maschinen zumindest auf Teilgebieten bereits leistungsfähiger als wir. Was die Maschine nicht kann, ist Emotion und soziale Interaktion. Die Frage ist allerdings, ob das überhaupt sinnvoll ist. Wir haben diese Fähigkeiten im Rahmen der Evolution als Notwendigkeit zum Überleben erworben. Dieses Problem stellt sich für eine Maschine aber nicht, insofern ist eine Diskussion darüber auch unsinnig. Emotionen sind im Zusammenhang mit der Evolution im Prinzip Standardroutinen zur Bewältigung von Standardsituationen. Menschen, die versucht haben, einen hungrigen Leoparden zu streicheln (keine Angst) gehören ebenso wenig zu unseren Vorfahren, wie solche, die unbeteiligt zugesehen haben, wie selbiger Leopard einen Familienangehörigen verspeist (keine Anteilnahme, keine Aggression, kein Mut). Standardroutinen zur Bewältigung von Standardsituationen kennt auch der Computer. Im Unterschied zu uns erlebt er sie nur nicht als Zustand. Definiert man Bewußtsein als eben jenes Erleben von Situationen bzw. von Zuständen, dann ergibt das für eine Maschine absolut keinen Sinn. Definiert man Bewußtsein aber als Kenntnis, daß man im Besitz einer speziellen Information ist und in Abwesenheit dieser Information gezielt danach sucht, wenn sie benötigt wird oder auch aktiv Informationen sammelt, auch wenn diese gerade nicht benötigt werden und man zu jedem Zeitpunkt weiß, was man weiß (Im weitesten Sinn also eine Modellierung der Umgebung unter Einbeziehung der eigenen Existenz vornimmt), dann wäre das ein Bewußtsein, das auch Maschinen zugänglich wäre. Das Problem "Bewußtsein für Maschinen" reduziert sich also im Kern auf eine semantische Fragestellung. Das sollte man in der Diskussion im Hinterkopf behalten.