close-btn

Эксперты предсказывают, что ИИ сам себя уничтожит

Эксперты предсказывают конец хайпа, связанного с генеративным искусственный интеллектом (ИИ), и говорят о надвигающемся катастрофическом крахе

Эксперты предсказывают, что ИИ сам себя уничтожит

Эксперты предсказывают, что ИИ сам себя уничтожит Фото: freepik.com

Обсуждаемый в 2023 году, но популяризированный недавно, «коллапс моделей» означает гипотетический сценарий, по которому будущие системы ИИ становятся все тупее из-за увеличения количества данных, сгенерированных ИИ в интернете.

Современные системы искусственного интеллекта строятся с помощью машинного обучения. Программисты создают базовую математическую структуру, но настоящий «интеллект» появляется благодаря обучению системы имитировать закономерности в данных. Но не просто данных. Нынешний урожай генеративных систем искусственного интеллекта требует высококачественных данных, причем в большом количестве.

Чтобы получить эти данные, крупные технологические компании, такие как OpenAI, Google, Meta и Nvidia, постоянно прочесывают интернет, вылавливая терабайты контента, чтобы «накормить машины». Но с появлением в 2022 году общедоступных и полезных генеративных систем искусственного интеллекта люди все чаще загружают и делятся контентом, который частично или полностью создан искусственным интеллектом.

Интересное по теме: Google добавила новые ИИ-функции в Gmail, которые нельзя отключить

В 2023 году исследователи начали задаваться вопросом, смогут ли они избежать наказания, полагаясь в обучении только на данные, созданные ИИ, а не на данные, созданные человеком.

Существуют огромные стимулы для того, чтобы это сработало. Помимо того, что контент, созданный искусственным интеллектом, распространяется в интернете, он намного дешевле, чем данные, полученные от человека. Кроме того, массовый сбор данных не вызывает сомнений с этической и юридической точки зрения.

Однако исследователи обнаружили, что без высококачественных человеческих данных ИИ-системы, обученные на искусственных данных, становятся все тупее и тупее, поскольку каждая следующая модель учится на предыдущей.

Такое «обучение», похоже, приводит к снижению качества и разнообразия поведения модели. Короче говоря, используя ИИ так часто, мы можем загрязнять именно тот источник данных, который нам нужен для того, чтобы сделать их полезными в первую очередь.

Есть намеки на то, что разработчикам уже сейчас приходится прилагать больше усилий, чтобы получить качественные данные.

Однако перспективы катастрофического краха модели могут быть преувеличены. Большинство исследований пока рассматривают случаи, когда синтетические данные заменяют человеческие. На практике же человеческие и искусственные данные, вероятно, будут накапливаться параллельно, что снижает вероятность коллапса.

Ознакомьтесь с другими популярными материалами:

OpenAI заключила соглашение с владельцем Vogue

Runway предоставила бесплатный доступ к новой модели ИИ

OpenAI предоставил бесплатный доступ к DALL-E 3 в ChatGPT

По материалам: ScienceAlert.

google news
credit link image