16 апреля вторник

Когда нам придется защищать мозги от хакеров?

Публикуем перевод колонки журналиста TheNextWeb Брайана Кларка о том, куда может привести взаимодействие мозга и компьютера

Когда нам придется защищать мозги от хакеров?
Статьи 8 августа 2016 •  runet

Когда нам придется защищать мозги от хакеров?

Публикуем перевод колонки журналиста TheNextWeb Брайана Кларка о том, куда может привести взаимодействие мозга и компьютера

8 августа 2016 👁 4369

Что, если
в один
прекрасный день хакеры смогут контролировать ваш ум, или, по крайней
мере, заглядывать в него,
используя зловредные программы?

Звучит как сюжет фантастического романа, но мы намного ближе к этому, чем
кажется на первый
взгляд. 

По мере
того как ученые продолжают прорывы в имплантации и управлении нейрокомпьютерными
интерфейсами, мы приближаемся
к тому,
чтобы это стало реальностью. А ученым
необходимо действовать быстро, чтобы убедиться, что сигналы нашего мозга не смогут быть
использованы против нас.

Как отмечает инженер
лаборатории биороботики Университета штата Вашингтон Говард Чизек, «На самом деле, осталось очень мало
времени. Если мы не адресуем это
быстро, будет слишком поздно».

В принципе,
контроль над человеческим мозгом осуществляется уже сейчас. Врачи используют
его в медицинских
целях, разработчики игр — для более точного управлениями играми
без джойстиков, и даже
армия США экспериментирует с этой
технологией. Дело не в том, сможет ли кто-то контролировать тебя всего лишь при
помощи компьютера, а в том, когда
это произойдёт.

Управление частью тела или всем человеческим телом вообще включает в себя воздействие на сигналы мозга, такими как ЭЭГ (электроэнцефалография) и изменение их для достижения желаемого результата (так поступает и этот парень, который смог шевелить бионическими пальцами, получив необходимый для этого имплант в мозг). 

Проблема (относительной) простоты бионики и управления человеческим телом посредством компьютеров заключается в том, что мы до сих пор не определили, как давать компьютерам доступ только к тем мозговым частотам, что им нужны, блокируя при этом остальные.

Инженер лаборатории биороботики Тамара Боначи объясняет:

Main_боначи
Тамара
Боначи
инженер лаборатории биороботики Университета штата Вашингтон

«Грубо говоря, проблема с интерфейсами мозг-компьютер в том, что большинство электронных устройств сегодня, когда ловят электросигналы для контроля приложением… приложение получает доступ не только к полезным частям ЭЭГ, необходимых для управления этим приложением, но и ко всей ЭЭГ. А весь сигнал ЭЭГ содержит очень много информации о нас как о людях»

При этом нам надо волноваться не только о хакерах. «Эту технологию могут превратно
использовать и полиция
или правительство. Например, если вы явно продемонстрируете поддержку оппозиции или
участие в чем-то незаконном, — предполагает Чизек. — Это как дистанционный детектор
лжи. Детектор мыслей».

Ученые стараются решить эту задачу, но очевидно, что самое простое,
хоть и временное,
решение — принять соответствующие законы (хотя
вряд ли
хакеры внезапно станут законопослушными).

Более постоянное решение, которое рассматривает команда Университета Вашингтона — анонимайзер BCI, инструмент, по своему
устройству напоминающий приложение для смартфона. Имеется в виду, что оно будет получать
ограниченную информацию для работы, но не будет иметь доступа к операционной
системе устройства. Такой инструмент может стать фильтром, который позволит
пройти только нужным мозговым волнам, и не пропустит другие.

Чизек отмечает, что на сегодняшний
день лаборатория продолжает проводить опыты, проверяя выполнимость такой
фильтрации и ее уровень.

Конечно, до того
момента, когда хакеры смогут проникать в наши мысли, могут пройти
десятилетия. Но уже
в течение
десяти ближайших лет появятся более продвинутые импланты, способные выполнять
более продвинутые моторные функции, мысли и даже речь. Выполняя эту работу
сейчас, ученые, возможно, спасают ас от катастрофических результатов неудачного
взаимодействия человека и машины
в не слишком
далеком будущем.

Перевод: Юнна Коцар

Теги: ,
Новости smi2.ru
Комментарии 0
Зарегистрируйтесь или , чтобы оставлять комментарии.