“Im Alltag bewegen wir unsere Augen nahezu ununterbrochen”, sagt Prof. Fred Hamker, Inhaber der Professur Künstliche Intelligenz an der TU Chemnitz. “Das hat den Vorteil, dass der Mensch den Teil der Szene, der sich im Zentrum des Blickfeldes befindet, besonders gut erkennen kann, weil dort das Sehen am schärfsten ist.”
Der Nachteil der fortlaufenden Augenbewegungen sei jedoch, dass das Gehirn eine nie endende Folge von kleinen Ausschnitten der Welt zu sehen bekomme, aus denen es ein Bild des Ganzen zusammensetzen müsse. “Denn normalerweise bemerken wir nicht, dass wir nur kleine Ausschnitte der Welt sehen, sondern haben den Eindruck, stets die ganze Szene vor unseren Augen zu haben.”
Die Aufgabe, die das Gehirn dabei lösen muss, nennen Forscher das Problem der visuellen Stabilität. Hamker und sein Mitarbeiter Arnold Ziesche versuchen, den Mechanismus zu verstehen, mit dem das Gehirn dieses Problem löst. Die Ergebnisse können die Grundlage bieten, um Robotern und digitalen Modellen beizubringen, ihre Umwelt realitätsnah wahrzunehmen und mit ihr zu interagieren.
Die Informatiker haben eine Computersimulation des Gehirnareals entwickelt, von dem man vermutet, dass es diese Berechnungen ausführt. “Dabei haben wir großen Wert darauf gelegt, dass die Simulation im Einklang mit bisherigen Messungen von Neuro-Wissenschaftlern und Psychologen ist, die sich mit diesem Problem beschäftigen”, so Hamker.
Da sich ein lebendes Gehirn nicht bis in das letzte Detail untersuchen lässt, studieren die Forscher stattdessen das Computerabbild. Dabei untersuchten sie einen Trick des Gehirns: Es kann Augenbewegungen voraussehen, bevor sie anfangen – weil das Gehirn von einem Areal, das die Augenbewegung plant, darüber informiert wird. Mit dieser Vorabinformation kann sich das Gehirnareal auf die Veränderung des Bildausschnitts vorbereiten und alle Bildinformationen an der richtigen Stelle in der Welt verorten.
Zu ihren aktuellen Ergebnissen haben die Wissenschaftler einen Beitrag im ‘Journal of Neuroscience’ veröffentlicht. Der Forschung liegt das Projekt ‘Visuospatial-cognition‘ zugrunde, das vom Bundesministerium für Bildung und Forschung bis 2010 gefördert wurde. Als nächstes wollen die Forscher untersuchen, wie das Gehirn die räumlichen Beziehungen der gesehenen Gegenstände verarbeitet. “Dazu werden wir unsere Computersimulation deutlich vergrößern. Unser Ziel ist es, ein zusammenhängendes Bild aller Vorgänge, die beim Sehen eine Rolle spielen, zu konstruieren”, sagt Hamker.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.