Скачать книгу

алгоритм из области машинного обучения[79]. Сходство между абстрактным методом машинного обучения и реальными биологическими сигналами наталкивает на мысль, что мозг обезьяны, вероятно, применяет нейронные сети для исполнения алгоритма, похожего на компьютерный.

      Между электроникой и активностью, приписываемой мозгу, есть и другие параллели. Например, нередко говорят, что частота потенциалов активности кодирует информацию, и ссылаются при этом на теорию, которую разработал в 40-х годах XX века Клод Шеннон для описания надежности коммуникаций в электронных системах наподобие радиоприемников и телефонов[80]. Теория информации Шеннона постоянно используется в инженерном деле и информатике для измерения того, с какой надежностью входящие данные соответствуют исходящим. В сущности, мы сталкиваемся с теорией информации, когда сжимаем мегапиксельные фотографии в килобайтовые jpeg-изображения, не теряя деталей, или передаем файлы по Ethernet-кабелям дома или на работе. Чтобы такие задачи хорошо исполнялись, инженерам надо подумать, как лучше всего распаковывать сжатые данные цифровых изображений и как быстро и точно понять и декодировать сигнал, переданный по кабелю, при каждой загрузке и выгрузке. Подобные проблемы тесно связаны с вопросами сохранения данных в биологической памяти и своевременной передачи по нервным волокнам в мозг потенциалов действия, содержащих сенсорную информацию. Для численного описания функционирования нейронов исключительно полезны математические модели теории информации и обработки сигналов в целом[81].

      Когда мы представляем себе мозг как электронное устройство, то совершенно естественно анализировать данные о работе мозга при помощи инженерных методов, например, теории информации или моделей машинного обучения. В некоторых случаях аналогия «мозг-компьютер» заводит исследователей еще дальше – заставляет сопоставлять отделы мозга с макро-деталями компьютера. В книге, вышедшей в 2010 году, нейрофизиологи Рэнди Гэллистел и Адам Кинг утверждают, что в мозге должно быть оперативное запоминающее устройство, как у прототипического компьютера – машины Тьюринга[82]. Машина Тьюринга перерабатывает данные, записывая и считывая нули и единицы на ленте, и операции считывания и записывания совершаются в соответствии с набором правил в машине («программой»), а лента и есть машинная память, аналогичная дискам или полупроводниковым микросхемам памяти в современных персональных компьютерах[83]. Гэллистел и Кинг полагают, что если все хорошие компьютеры основаны на подобных механизмах запоминания, значит, и мозг тоже. Таким образом, авторы ставят под вопрос современную догму, что основа биологической памяти лежит в изменениях синаптических связей между нейронами – такую модель трудно уподобить памяти по Тьюрингу: по их мысли, такой синаптический механизм слишком медленный и негибкий, несмотря на то что его подтверждает колоссальное количество

Скачать книгу


<p>79</p>

Richard S. Sutton and Andrew G. Barto, «Reinforcement Learning: An Introduction» (Cambridge, MA: MIT Press, 1998).

<p>80</p>

Claude E. Shannon and Warren Weaver, «The Mathematical Theory of Communication» (Urbana: University of Illinois Press, 1998; перевод на русский язык см. в сб. «Работы по теории информации и кибернетике» (Москва: ИИЛ, 1963), пер. С. Карпова.

<p>81</p>

Fred Rieke, David Warland, Rob de Ruyter van Steveninck, and William Bialek, «Spikes: Exploring the Neural Code» (Cambridge, MA: MIT Press, 1997).

<p>82</p>

C. R. Gallistel and Adam Philip King, «Memory and the Computational Brain: Why Cognitive Science Will Transform Neuroscience» (Hoboken, NJ: Wiley-Blackwell, 2010).

<p>83</p>

A. M. Turing, «On computable numbers, with an application to the Entscheidungsproblem», «Proceedings of the London Mathematical Society» s2–42 (1937): 230–265.