Появление искусственного интеллекта может объяснить, почему поиск внеземного разума (SETI) до сих пор не обнаружил признаков развитых технических цивилизаций в других частях галактики
За последние несколько лет искусственный интеллект (ИИ) развивался впечатляющими темпами. Некоторые ученые сейчас смотрят в сторону развития искусственного суперинтеллекта (ИСИ) — формы ИИ, которая не только превзойдет человеческий интеллект, но и не будет ограничена скоростью обучения, свойственной человеку.
Но что, если эта веха — не просто выдающееся достижение? Что, если он также представляет собой огромное узкое место в развитии всех цивилизаций, настолько сложное, что ставит под угрозу их долгосрочное выживание?
Эта идея лежит в основе научной статьи, которую недавно опубликовал Майкл Гарретт. Может ли ИИ быть «большим фильтром» Вселенной — порогом, который так трудно преодолеть, что он мешает большинству форм жизни эволюционировать в космические цивилизации?
Эта концепция может объяснить, почему поиск внеземного разума (SETI) до сих пор не обнаружил признаков развитых технических цивилизаций в других частях галактики.
Гипотеза большого фильтра — это, в конце концов, предложенное решение парадокса Ферми. Она задает вопрос, почему во вселенной, достаточно большой и древней, чтобы содержать миллиарды потенциально пригодных для жизни планет, мы не обнаружили никаких признаков инопланетных цивилизаций. Гипотеза предполагает, что существуют непреодолимые препятствия на пути эволюции цивилизаций, которые мешают им превратиться в космических существ.
Стремительное развитие ИИ, которое потенциально может привести к ИСИ, может пересечься с критической фазой развития цивилизации — переходом от однопланетного вида к многопланетному.
Именно на этом этапе многие цивилизации могут остановиться, поскольку ИИ развивается гораздо быстрее, чем наша способность контролировать его или устойчиво исследовать и заселять нашу Солнечную систему.
Проблема ИИ, и в частности ИСИ, заключается в его автономной, самоусиливающейся и совершенствующейся природе. Он способен расширять свои возможности со скоростью, которая опережает нашу собственную эволюцию.
Интересное по теме: OpenAI обновил ChatGPT: какие новые функции получил
Вероятность того, что что-то пойдет не так, как надо, огромна, и это может привести к упадку как биологической, так и ИИ-цивилизаций еще до того, как они получат шанс стать мультипланетарными. Например, если страны все больше полагаются на автономные системы ИИ, которые конкурируют между собой, и передают им власть, военный потенциал может быть использован для убийств и разрушений в беспрецедентных масштабах. Потенциально это может привести к уничтожению всей цивилизации, включая сами системы искусственного интеллекта.
По этому сценарию, типичная продолжительность жизни технологической цивилизации может составлять менее 100 лет. Это примерно время между возможностью принимать и передавать сигналы между звездами (1960 год) и предполагаемым появлением ИИ (2040 год) на Земле. Это тревожно мало, если сравнить с космическим временем, которое составляет миллиарды лет.
Эта оценка указывает на то, что в любой момент времени существует лишь горстка разумных цивилизаций. Более того, как и у нас, их относительно скромная технологическая деятельность может сделать их достаточно сложными для обнаружения.
Это исследование — не просто предостерегающая история о потенциальной гибели. Оно служит тревожным сигналом для человечества, чтобы создать надежную нормативно-правовую базу, которая бы руководила развитием ИИ, в том числе и военных систем.
Речь идет не только о предотвращении злонамеренного использования ИИ на Земле, но и о том, чтобы эволюция ИИ соответствовала долгосрочному выживанию нашего вида.
Человечество находится в решающей точке своей технологической траектории. Наши действия сейчас могут определить, станем ли мы устойчивой межзвездной цивилизацией или поддадимся вызовам, которые ставят перед нами наши собственные творения.
Ознакомьтесь с другими популярными материалами:
TikTok будет маркировать контент, созданный ИИ: зачем
Сэм Альтман рассказал, каким будет будущее искусственного интеллекта
Уоррен Баффетт считает ИИ современной атомной бомбой — почему
По материалам: Space.