Инопланетяне, искусственный интеллект и еще 5 предостережений Стивена Хокинга

Известный британский физик Стивен Хокинг утверждает, что шансы человечества устроить техногенную катастрофу в ближайшее тысячелетие неуклонно растут с развитием науки и техники — это может быть ядерная война, глобальное потепление и вирусы, созданные посредством биотехнологий. Человечество сможет спастись, улетев на другие планеты — но в ближайшие столетия, пока мы не способны создавать жизнеспособные колонии в космосе, нам вести себя разумно. Собрали все, от чего нас предостерегает знаменитый ученый.

1. Искусственный интеллект

По большому счету, Стивен Хокинг боится не искусственного интеллекта (ИИ), а безответственных людей. На Глобальной конференции мобильного интернета, состоявшейся 27 апреля в Пекине, ученый предостерег человечество от бездумного использования новейших технологий.

«Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он собой представляет», – подчеркнул Хокинг.

Физик полагает, что нерациональное использование возможностей информационных технологий может сделать человека беззащитным перед лицом природы. В условиях естественного отбора это может привести человечество к гибели. Впрочем, Хокинг уверен полагает, что при умелом подходе искусственный интеллект способен решить множество глобальных проблем.

Ученый заявлял о своем противоречивом отношении к высоким технологиям неоднократно. В 2015 году Хокинг подписал открытое письмо с предупреждением, что оружие искусственного интеллекта может создать «глобальную гонку вооружений» в будущем. В числе подписавших письмо – Илон Маск, директор по исследованиям Google Питер Норвиг, профессор Стюарт Дж. Рассел из Калифорнийского университета в Беркли и другие эксперты в области ИИ, программисты, робототехники и специалисты по этике. Ученые и специалисты призывали тщательно изучить влияние искусственного интеллекта на общество.

«Технология искусственного интеллекта достигла точки, когда развертывание таких систем практически (если не юридически) осуществимо в течение лет, а не десятилетий, и ставки высоки: автономное оружие описывают как третью революцию в войне после изобретения пороха и разработки ядерного оружия «, – говорится в письме.

Стивен Хокинг и Илон Маск описали 23 принципа искусственного интеллекта, соблюдение которых позволило бы человечеству избежать ошибок. Среди них культура исследовательского сообщества, в которую входит доверие и открытость, безопасность, юридическая прозрачность, следование ценностям человечества и соблюдение таких неотъемлемых прав человека, как право на свободу и частную жизнь.

2. Ядерная война

Хокинг призывает человечество к эмпатии. В противном случае человеческая агрессия в сочетании с технологическими достижениями в области ядерного оружия может привести к нашей гибели.

«Человеческий недостаток, который я хотел бы исправить, – это агрессия», – сказал Хокинг в интервью The Independent в прошлом году. «Возможно, в пещерные дни он давал нам преимущество в выживании, мы могли заполучить больше еды, территории или партнера для размножения, но теперь агрессия может уничтожить всех нас»

3. Глобальное потепление

Поверхность Венеры

Стивен Хокинг опасается, что изменения климата приведут к вымиранию всего живого на планете. Ученый озабочен позицией президента США Дональда Трампа, который отрицает глобальное потепление.

«Мы не знаем, когда остановится глобальное потепление», – говорит Хокинг. «Но самый худшее в этом сценарии то, что Земля будет похожа на свою сестринскую планету Венеру с температурой 250 градусов Целисия и дождем из серной кислоты. Человеческая раса не смогла бы выжить в этих условиях».

Тем не менее, ученый настроен оптимистично и уверен, что человечество еще может все исправить.

4. Генетически модифицированные вирусы

Хокинг предупреждает, что вирусы, созданные с помощью генной инженерии, будут способны уничтожить целые популяции, если выйдут из-под контроля.

5. Инопланетяне

Ученый убежден, что жизнь на других планетах существует, однако он советует людям вступать в контакт с инопланетянами с осторожностью. В получасовой программе «Любимые места Стивена Хокинга» на канале CuriosityStream, ученый заявил, что встреча землян с более развитыми цивилизациями может быть подобна «встрече коренных жителей Америки с Колумбом», которая «плохо кончилась».

При этом астрофизик считает, что жители других планет могут использовать Землю как источник ресурсов, если они окажутся более развитыми, чем жители Земли. Такое заявление физик сделал в свете открытия планеты Gliese 832c, которая находится на расстоянии 16 световых лет от Земли.

6. Перенаселение, голод и неравенство

Стивена Хокинга волнуют проблемы неравенства. Он отмечает, что с распространением интернета и социальных медиа по всему миру положение людей в развивающихся странах стало еще более очевидным. Хокинг уверен, что мир ожидает волна экономических миграций, так как люди из бедных стран будут стремиться уехать за границу.

«Эти мигранты, в свою очередь, предъявят новые требования к инфраструктурам и экономике стран, в которые они прибыли, подрывая толерантность и усиливая политический популизм.»

Людям необходимо образовать сплоченное международное сообщество, чтобы решать проблемы, такие как голод и перенаселение.

7. Технологическая безработица

Это один из аргументов Хокинга, подтверждающих необходимость отнестись к ИИ со всей ответственностью.

«Автоматизация заводов уже сократила рабочие места в традиционном производстве, а развитие искусственного интеллекта, вероятно, заденет средний класс, оставив только профессии, связанные с творчеством, уходом и воспитанием и управлением. Это, в свою очередь, ускорит и без того растущее экономическое неравенство во всем мире. Интернет и другие платформы позволят очень маленьким группам людей получать огромные прибыли, а занято будет очень мало людей. Это неизбежно, это прогресс, но он будет разрушителен для общества», утверждает ученый.

Комментарии