- 4 sehenswerte Filme diese Woche im Kino! - März 21, 2023
- „Senna“ Netflix-Formel-1-Legenden-Biopic-Serie: Alles, was wir bisher wissen - März 21, 2023
- „Blood and Honey“ aus den Kinos in Hongkong – The Hollywood Reporter - März 21, 2023
[ad_1]
Weitergehend versuchten die Forscher, die Leistung von Menschen und Pavianen mit künstlicher Intelligenz zu replizieren, indem sie neuronale Netzwerkmodelle verwendeten, die von grundlegenden mathematischen Ideen darüber inspiriert sind, was ein Neuron tut und wie Neuronen miteinander verbunden sind. Diese Modelle – statistische Systeme, die von hochdimensionalen Vektoren angetrieben werden, Matrizen, die Schichten von Zahlen multiplizieren – erreichten erfolgreich die Leistung der Paviane, aber nicht die der Menschen; Sie konnten den Regelmäßigkeitseffekt nicht reproduzieren. Als die Forscher jedoch ein aufgemotztes Modell mit symbolischen Elementen erstellten – das Modell erhielt eine Liste von Eigenschaften geometrischer Regelmäßigkeit, wie etwa rechte Winkel, parallele Linien –, replizierte es die menschliche Leistung genau.
Diese Ergebnisse wiederum stellen eine Herausforderung für die künstliche Intelligenz dar. „Ich liebe den Fortschritt in der KI“, sagte Dr. Dehaene. „Es ist sehr beeindruckend. Aber ich glaube, dass ein tiefer Aspekt fehlt, nämlich die Symbolverarbeitung“ – das heißt, die Fähigkeit, Symbole und abstrakte Konzepte zu manipulieren, wie es das menschliche Gehirn tut. Dies ist das Thema seines neuesten Buches „Wie wir lernen: Warum Gehirne besser lernen als jede Maschine … vorerst.“
Yoshua Bengio, ein Informatiker an der Universität von Montreal, stimmte zu, dass der aktuellen KI etwas fehlt, was mit Symbolen oder abstraktem Denken zu tun hat. Dr. Dehaenes Arbeit, sagte er, präsentiere „Beweise dafür, dass menschliche Gehirne Fähigkeiten nutzen, die wir beim maschinellen Lernen auf dem neuesten Stand der Technik noch nicht finden“.
Das gilt besonders, sagte er, wenn wir Symbole kombinieren, während wir Wissensstücke zusammenstellen und neu zusammensetzen, was uns hilft, zu verallgemeinern. Diese Lücke könnte die Grenzen der KI – zum Beispiel eines selbstfahrenden Autos – und die Inflexibilität des Systems erklären, wenn es mit Umgebungen oder Szenarien konfrontiert wird, die sich vom Trainingsrepertoire unterscheiden. Und es ist ein Hinweis, sagte Dr. Bengio, wohin die KI-Forschung gehen muss.
Dr. Bengio stellte fest, dass von den 1950er bis 1980er Jahren symbolische Verarbeitungsstrategien die „gute altmodische KI“ dominierten. Diese Ansätze waren jedoch weniger durch den Wunsch motiviert, die Fähigkeiten des menschlichen Gehirns zu replizieren, als durch logikbasiertes Denken (z. Überprüfung des Beweises eines Theorems). Dann kamen die statistische KI und die Revolution der neuronalen Netzwerke, die in den 1990er Jahren begannen und in den 2010er Jahren an Bedeutung gewannen. Dr. Bengio war ein Pionier dieser Deep-Learning-Methode, die direkt vom Neuronennetzwerk des menschlichen Gehirns inspiriert wurde.
Seine neueste Forschung schlägt vor, die Fähigkeiten von neuronalen Netzwerken zu erweitern, indem sie darauf trainiert werden, Symbole und andere Darstellungen zu erzeugen oder sich vorzustellen.
Es sei nicht unmöglich, mit neuronalen Netzen abstrakt zu denken, sagte er, „wir wissen nur noch nicht, wie es geht.“ Dr. Bengio hat zusammen mit Dr. Dehaene (und anderen Neurowissenschaftlern) ein großes Projekt ins Leben gerufen, um zu untersuchen, wie menschliche bewusste Verarbeitungskräfte die KI der nächsten Generation inspirieren und stärken könnten. „Wir wissen nicht, was funktionieren wird und was sein wird am Ende des Tages, unser Verständnis davon, wie Gehirne es tun“, sagte Dr. Bengio.
[ad_2]