Informatiker erforschen das Sehen

“Im Alltag bewegen wir unsere Augen nahezu ununterbrochen”, sagt Prof. Fred Hamker, Inhaber der Professur Künstliche Intelligenz an der TU Chemnitz. “Das hat den Vorteil, dass der Mensch den Teil der Szene, der sich im Zentrum des Blickfeldes befindet, besonders gut erkennen kann, weil dort das Sehen am schärfsten ist.”


Prof. Fred Hamker, TU Chemnitz

Der Nachteil der fortlaufenden Augenbewegungen sei jedoch, dass das Gehirn eine nie endende Folge von kleinen Ausschnitten der Welt zu sehen bekomme, aus denen es ein Bild des Ganzen zusammensetzen müsse. “Denn normalerweise bemerken wir nicht, dass wir nur kleine Ausschnitte der Welt sehen, sondern haben den Eindruck, stets die ganze Szene vor unseren Augen zu haben.”

Die Aufgabe, die das Gehirn dabei lösen muss, nennen Forscher das Problem der visuellen Stabilität. Hamker und sein Mitarbeiter Arnold Ziesche versuchen, den Mechanismus zu verstehen, mit dem das Gehirn dieses Problem löst. Die Ergebnisse können die Grundlage bieten, um Robotern und digitalen Modellen beizubringen, ihre Umwelt realitätsnah wahrzunehmen und mit ihr zu interagieren.

Die Informatiker haben eine Computersimulation des Gehirnareals entwickelt, von dem man vermutet, dass es diese Berechnungen ausführt. “Dabei haben wir großen Wert darauf gelegt, dass die Simulation im Einklang mit bisherigen Messungen von Neuro-Wissenschaftlern und Psychologen ist, die sich mit diesem Problem beschäftigen”, so Hamker.

Da sich ein lebendes Gehirn nicht bis in das letzte Detail untersuchen lässt, studieren die Forscher stattdessen das Computerabbild. Dabei untersuchten sie einen Trick des Gehirns: Es kann Augenbewegungen voraussehen, bevor sie anfangen – weil das Gehirn von einem Areal, das die Augenbewegung plant, darüber informiert wird. Mit dieser Vorabinformation kann sich das Gehirnareal auf die Veränderung des Bildausschnitts vorbereiten und alle Bildinformationen an der richtigen Stelle in der Welt verorten.

Zu ihren aktuellen Ergebnissen haben die Wissenschaftler einen Beitrag im ‘Journal of Neuroscience’ veröffentlicht. Der Forschung liegt das Projekt ‘Visuospatial-cognition‘ zugrunde, das vom Bundesministerium für Bildung und Forschung bis 2010 gefördert wurde. Als nächstes wollen die Forscher untersuchen, wie das Gehirn die räumlichen Beziehungen der gesehenen Gegenstände verarbeitet. “Dazu werden wir unsere Computersimulation deutlich vergrößern. Unser Ziel ist es, ein zusammenhängendes Bild aller Vorgänge, die beim Sehen eine Rolle spielen, zu konstruieren”, sagt Hamker.

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

16 Stunden ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

16 Stunden ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

2 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

3 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

5 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

5 Tagen ago