Центр по борьбе с терминаторами

mainimg


БРИТАНИЯ, Кембридж – Проблема искусственного интеллекта все чаще волнует впечатлительных ученых, чье воспаленное воображение крепко захвачено кадрами из фильмов «Матрица» или «Терминатор». Вот они и решили детально разобраться с тем, насколько опасно техногенное развитие для цивилизации.


Ученые Кембриджа планируют создать центр, в котором постараются разобраться с вопросом, который является одним из центральных в научной фантастике: «А не приведет ли развитие науки и техники к гибели цивилизации?» А также будут искать возможные пути противодействия катастрофе. Центр основан профессором философии Хью Прайсом, профессором космологии Мартином Ризом и соучредителем Skype Янном Таллинном.

Центр по изучению экзистенциальных рисков подвергнет анализу опасности, которыми чревато развитие биотехнологий. Также исследователи центра заявили, что было бы опасным сбрасывать со счетов опасность восстания роботов, ведь такие фильмы, как «Матрица» или «Терминатор» изображают порабощение человечества роботами и системами искусственного интеллекта. К слову, не так давно американскими военными была разработана аналогичная система той, которая фигурирует в фильмах из серии «Терминатор».

Несмотря на кажущуюся фантастичность таких предположений, ученые Кембриджа считают, что они заслуживают серьезного внимания:

– Серьезность такой угрозы трудно оценить, но это само по себе должно вызывать тревогу, учитывая, что именно поставлено на кон. Представляется допустимым предположение, что в какой-то момент в этом или следующем столетии разум вырвется из оков биологии. Мы пытаемся сделать вопрос об этом приемлемым для обсуждения в среде респектабельных ученых, – пишут исследователи на сайте центра.

Выделено четыре главных цели мониторинга и исследований (которые принято считать потенциальными угрозами):

искусственный интеллект;

изменение климата;

ядерное оружие;

биотехнологии.

Риз, кстати, выпустил в 2003 году книгу «Наш последний век», где предупреждал, что деструктивная направленность человеческой деятельности прикончит все человечество году к 2100-му году.

– Нам нужно очень серьезно отнестись к последствиям создания искусственного интеллекта. Это вполне может оказаться ящиком Пандоры. Риск велик, ведь на карту поставлено слишком многое, нынешний мир очень сильно зависит от технологий. В общем, основная философия здесь в том, что мы обязаны с максимальной серьезностью подходить к вещам, которые несут потенциальную угрозу нашему существованию. В данном случае я говорю о технологиях, – говорит Хью Прайс.

Сначала придумывали и создавали, пытаясь облегчить свою жизнь, теперь стали бояться и стараются защититься от «восстания машин», ну и где тут человеческая логика?

Центр по изучению глобальных рисков планируется открыть на территории кампуса в следующем году.

По материалам habrahabr.ru, vostokmedia.com, lightnews.net
Катерина Швецова • 27 ноября 2012 в 15:19

Комментарии2

БРИАТНИЯ, Кембридж
даа, бриатнские ученые в своем репертуаре...
27 ноября 2012
Прогресс неудержим, хотят этого в Кембридже или нет. Военным - тем вообще пох на все эти запреты, так что...
27 ноября 2012
Чтобы оставить комментарий, вам нужно авторизоваться