close-btn

ИИ может мешать нам установить контакт с инопланетянами

Появление искусственного интеллекта может объяснить, почему поиск внеземного разума (SETI) до сих пор не обнаружил признаков развитых технических цивилизаций в других частях галактики

ИИ может мешать нам установить контакт с инопланетянами

ИИ может мешать нам установить контакт с инопланетянами Фото: freepik.com

За последние несколько лет искусственный интеллект (ИИ) развивался впечатляющими темпами. Некоторые ученые сейчас смотрят в сторону развития искусственного суперинтеллекта (ИСИ) — формы ИИ, которая не только превзойдет человеческий интеллект, но и не будет ограничена скоростью обучения, свойственной человеку.

Но что, если эта веха — не просто выдающееся достижение? Что, если он также представляет собой огромное узкое место в развитии всех цивилизаций, настолько сложное, что ставит под угрозу их долгосрочное выживание?

Эта идея лежит в основе научной статьи, которую недавно опубликовал Майкл Гарретт. Может ли ИИ быть «большим фильтром» Вселенной — порогом, который так трудно преодолеть, что он мешает большинству форм жизни эволюционировать в космические цивилизации?

Эта концепция может объяснить, почему поиск внеземного разума (SETI) до сих пор не обнаружил признаков развитых технических цивилизаций в других частях галактики.

Гипотеза большого фильтра — это, в конце концов, предложенное решение парадокса Ферми. Она задает вопрос, почему во вселенной, достаточно большой и древней, чтобы содержать миллиарды потенциально пригодных для жизни планет, мы не обнаружили никаких признаков инопланетных цивилизаций. Гипотеза предполагает, что существуют непреодолимые препятствия на пути эволюции цивилизаций, которые мешают им превратиться в космических существ.

Стремительное развитие ИИ, которое потенциально может привести к ИСИ, может пересечься с критической фазой развития цивилизации — переходом от однопланетного вида к многопланетному.

Именно на этом этапе многие цивилизации могут остановиться, поскольку ИИ развивается гораздо быстрее, чем наша способность контролировать его или устойчиво исследовать и заселять нашу Солнечную систему.

Проблема ИИ, и в частности ИСИ, заключается в его автономной, самоусиливающейся и совершенствующейся природе. Он способен расширять свои возможности со скоростью, которая опережает нашу собственную эволюцию.

Интересное по теме: OpenAI обновил ChatGPT: какие новые функции получил

Вероятность того, что что-то пойдет не так, как надо, огромна, и это может привести к упадку как биологической, так и ИИ-цивилизаций еще до того, как они получат шанс стать мультипланетарными. Например, если страны все больше полагаются на автономные системы ИИ, которые конкурируют между собой, и передают им власть, военный потенциал может быть использован для убийств и разрушений в беспрецедентных масштабах. Потенциально это может привести к уничтожению всей цивилизации, включая сами системы искусственного интеллекта.

По этому сценарию, типичная продолжительность жизни технологической цивилизации может составлять менее 100 лет. Это примерно время между возможностью принимать и передавать сигналы между звездами (1960 год) и предполагаемым появлением ИИ (2040 год) на Земле. Это тревожно мало, если сравнить с космическим временем, которое составляет миллиарды лет.

Эта оценка указывает на то, что в любой момент времени существует лишь горстка разумных цивилизаций. Более того, как и у нас, их относительно скромная технологическая деятельность может сделать их достаточно сложными для обнаружения.

Это исследование — не просто предостерегающая история о потенциальной гибели. Оно служит тревожным сигналом для человечества, чтобы создать надежную нормативно-правовую базу, которая бы руководила развитием ИИ, в том числе и военных систем.

Речь идет не только о предотвращении злонамеренного использования ИИ на Земле, но и о том, чтобы эволюция ИИ соответствовала долгосрочному выживанию нашего вида.

Человечество находится в решающей точке своей технологической траектории. Наши действия сейчас могут определить, станем ли мы устойчивой межзвездной цивилизацией или поддадимся вызовам, которые ставят перед нами наши собственные творения.

Ознакомьтесь с другими популярными материалами:

TikTok будет маркировать контент, созданный ИИ: зачем

Сэм Альтман рассказал, каким будет будущее искусственного интеллекта

Уоррен Баффетт считает ИИ современной атомной бомбой — почему

По материалам: Space.

google news