«Наша идея заключается в том, чтобы заместить отсутствующее зрение другим 'каналом' информации, чьим источником являются иные органы чувств. Это можно сравнить с тем, как летучие мыши и дельфины используют эхолокацию для того, чтобы 'видеть' ушами», - заявил Амир Амеди из Еврейского университета в Иерусалиме (Израиль).
Амеди и его коллеги научили нескольких слепых людей лучше ориентироваться в пространстве при помощи ушей, разработав оригинальную систему тренинга. По этой методике авторы статьи постепенно учили добровольцев распознавать простейшие элементы - звуковые «точки» и «линии», а потом переходили к более сложным «рисункам».
Постепенно добровольцы научились распознавать относительно сложные изображения. В этот момент нейрофизиологи перешли к следующей стадии эксперимента - они разработали особый алгоритм vOICe и создали на его основе программу для iPad и iPhone. Это приложение получает снимки с встроенной камеры в телефоне и планшете, делает их черно-белыми и выделяет на них очертания предметов и людей, после чего преобразует картинку в звук.
Выдав своим подопечным такие «гаджеты», авторы статьи проверили, смогут ли они увидеть силуэты людей и предметов обстановки, одновременно наблюдая за активностью в их мозге. В целом, эксперимент завершился удачно - самые способные добровольцы смогли не только распознать фигуры людей, но и «увидеть» то, как они двигались или в каких позах они стояли.
Что интересно, наблюдения за работой мозга показали, что эта информация обрабатывалась не в центре слуха, а в центре зрения. Данный факт говорит о том, что мозг умеет гибко работать с различными источниками информации, поступающими из органов чувств, и «переключать» их по мере необходимости.
Читайте также: как удалось «засечь» падающий на Луну метеорит, о чем говорится в ранее неизвестной статье Эйнштейна, из-за чего появилась темная кожа у предков человека в Африке, зачем мумиям сыр и многое другое - в свежем выпуске рубрики «Научный понедельник» на ria.ru.