Heutzutage erinnert der Begriff "Big Data" an sehr große Datenmengen. Bei einer SFI-Arbeitsgruppe im August, "Big Data In the Brain", lag der Schwerpunkt jedoch auf dem Gehirn und der Art und Weise, wie große Datenmengen verwaltet werden - plus der Abbildung des Gehirns selbst, was eine weitere Herausforderung für Big Data darstellt.

"Im Grunde geht es bei allem im Gehirn darum, große Datenmengen zu berechnen", sagt der Neurobiologe und SFI-Außenprofessor Charles Stevens vom Salk Institute, dem Gastgeber des Treffens.

Es gibt zwei Klassen solcher Berechnungen: Die von der Evolution fest verdrahteten und die, die gelernt werden müssen. Bei fest verdrahteten Berechnungen handelt es sich beispielsweise um Berechnungen, mit denen visuelle Daten aus den Augen verstanden werden sollen.

Auf der anderen Seite sind Geruchsdaten von der Nase komplexer als das Erstellen eines Bildes in drei Dimensionen und können nicht fest verdrahtet werden, erklärt Stevens. Es gibt so viele Gerüche und Geruchskombinationen, dass die olfaktorische Wahrnehmung anstelle von drei visuellen Dimensionen etwa tausend Dimensionen in Einklang bringen muss, um einen einzelnen Punkt zu identifizieren.

"Das sind große Datenmengen", sagt Stevens. "So hatte zum Beispiel bis vor ein paar hundert Jahren niemand Kaffee gerochen. Heute kann jeder den Geruch von Kaffee unterscheiden, gut von schlechtem Kaffee, und sogar, ob er von Starbucks stammt. Evolution hätte ihn nicht einschleifen können."

Die Teilnehmer der Arbeitsgruppe - Stevens, Venkatesh Murthy aus Harvard und Stephen Smith aus Stanford - diskutierten auch die zellweise Abbildung des Gehirns, was ein anderes Problem aufwirft: Wie gehen Sie mit der riesigen Datenmenge um, die dann ein Gehirn beschreiben würde? ?

Die Arbeitsgruppe fand vom 11. bis 24. August am SFI statt.

Bereitgestellt vom Santa Fe Institute