Die MIT-Forscher haben jetzt ein theoretisches Modell geschaffen. In diesem Modell können Computer “lernen”, Muster und Vorgänge auf dieselbe Art zu begreifen wie das menschliche Gehirn es tut.
Die beiden MIT-Forscher haben dafür verschiedene Herangehensweisen geschaffen, wie ein Computer mit Daten umgehen könnte. Josh Tenenbaum, Studienautor der ersten Ergebnisse, beschrieb das Modell als eine Verknüpfung. Dabei hätten sie nicht die statische Betrachtungsweise in den Mittelpunkt gestellt, sondern, versucht, dem Computer mehr Vergleichsmöglichkeiten an die Hand zu geben. Mit diesen könne er verschiedene Faktoren der Daten “erkennen” und die Daten gegeneinander abwägen.
Dafür mussten sie den Maschinen, die plötzlich mit riesigen und ungeordneten Datenmassen konfrontiert waren, etwas über den Menschen beibringen. Sie lehrten die Maschinen demnach, Hierarchien wie Struktur und Muster auf die Datensätze anzuwenden. Außerdem fütterten die Forscher sie mit Informationen darüber, welche Vergleichskriterien am besten auf welche Sorte von Daten anzuwenden ist. Das Feld der künstlichen Intelligenz sei damit reicher geworden, sagte er. Künstliche Intelligenz wird etwa bei der Robotik verwendet, findet aber auch in einer abgeschwächten Form in jede Maschine Anwendung.
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…
Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…