Informatiker erforschen das Sehen

“Im Alltag bewegen wir unsere Augen nahezu ununterbrochen”, sagt Prof. Fred Hamker, Inhaber der Professur Künstliche Intelligenz an der TU Chemnitz. “Das hat den Vorteil, dass der Mensch den Teil der Szene, der sich im Zentrum des Blickfeldes befindet, besonders gut erkennen kann, weil dort das Sehen am schärfsten ist.”


Prof. Fred Hamker, TU Chemnitz

Der Nachteil der fortlaufenden Augenbewegungen sei jedoch, dass das Gehirn eine nie endende Folge von kleinen Ausschnitten der Welt zu sehen bekomme, aus denen es ein Bild des Ganzen zusammensetzen müsse. “Denn normalerweise bemerken wir nicht, dass wir nur kleine Ausschnitte der Welt sehen, sondern haben den Eindruck, stets die ganze Szene vor unseren Augen zu haben.”

Die Aufgabe, die das Gehirn dabei lösen muss, nennen Forscher das Problem der visuellen Stabilität. Hamker und sein Mitarbeiter Arnold Ziesche versuchen, den Mechanismus zu verstehen, mit dem das Gehirn dieses Problem löst. Die Ergebnisse können die Grundlage bieten, um Robotern und digitalen Modellen beizubringen, ihre Umwelt realitätsnah wahrzunehmen und mit ihr zu interagieren.

Die Informatiker haben eine Computersimulation des Gehirnareals entwickelt, von dem man vermutet, dass es diese Berechnungen ausführt. “Dabei haben wir großen Wert darauf gelegt, dass die Simulation im Einklang mit bisherigen Messungen von Neuro-Wissenschaftlern und Psychologen ist, die sich mit diesem Problem beschäftigen”, so Hamker.

Da sich ein lebendes Gehirn nicht bis in das letzte Detail untersuchen lässt, studieren die Forscher stattdessen das Computerabbild. Dabei untersuchten sie einen Trick des Gehirns: Es kann Augenbewegungen voraussehen, bevor sie anfangen – weil das Gehirn von einem Areal, das die Augenbewegung plant, darüber informiert wird. Mit dieser Vorabinformation kann sich das Gehirnareal auf die Veränderung des Bildausschnitts vorbereiten und alle Bildinformationen an der richtigen Stelle in der Welt verorten.

Zu ihren aktuellen Ergebnissen haben die Wissenschaftler einen Beitrag im ‘Journal of Neuroscience’ veröffentlicht. Der Forschung liegt das Projekt ‘Visuospatial-cognition‘ zugrunde, das vom Bundesministerium für Bildung und Forschung bis 2010 gefördert wurde. Als nächstes wollen die Forscher untersuchen, wie das Gehirn die räumlichen Beziehungen der gesehenen Gegenstände verarbeitet. “Dazu werden wir unsere Computersimulation deutlich vergrößern. Unser Ziel ist es, ein zusammenhängendes Bild aller Vorgänge, die beim Sehen eine Rolle spielen, zu konstruieren”, sagt Hamker.

Silicon-Redaktion

Recent Posts

Mehr Datenschutz in der Montage

Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…

14 Stunden ago

Cyber Resilience Act: Countdown läuft

Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…

14 Stunden ago

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

2 Tagen ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

2 Tagen ago

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

2 Tagen ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

3 Tagen ago