OpenAI и Лос-Аламосская национальная лаборатория (LANL), объявили о сотрудничестве
Они хотят понять, как мультимодальные модели искусственного интеллекта (ИИ) могут безопасно использоваться учеными в лабораторных условиях.
LANL — одна из ведущих национальных лабораторий США, а также ответственная за создание первого в мире ядерного оружия. Совместно с OpenAI они работают над изучением того, как ИИ может безопасно использоваться учеными в лабораторных условиях для продвижения биологических исследований.
«Как частная компания, служащая общественным интересам, мы рады объявить о первом в своем роде партнерстве с Лос-Аламосской национальной лабораторией для изучения возможностей биологических наук, — сказала Мира Мурати, директор по технологиям OpenAI. — Это партнерство знаменует собой естественное развитие нашей миссии — продвижение научных исследований, а также понимание и снижение рисков».
OpenAI и Отдел биологических наук Лос-Аламосской национальной лаборатории работают над оценочным исследованием, чтобы определить, как граничные модели, такие как GPT-4o, могут помочь людям в выполнении задач в условиях физической лаборатории благодаря мультимодальным возможностям, таким как зрение и голос. Это включает оценку биологической безопасности GPT-4o и его голосовых систем реального времени, которые еще не выпущены, чтобы понять, как они могут быть использованы для поддержки исследований в области биологических наук.
Интересное по теме: OpenAI создаст ИИ-тренера по здоровью
«ИИ — это мощный инструмент, который может принести огромную пользу в сфере науки, но, как и любая новая технология, он связан с рисками, — сказал Ник Дженероус, заместитель руководителя группы по информационным системам и моделированию. — В Лос-Аламосе эту работу возглавит новая группа по технической оценке рисков ИИ, которая поможет оценить и лучше понять эти риски».
Предстоящая оценка в Лос-Аламосе станет первым экспериментом по тестированию мультимодальных моделей в лабораторных условиях путем оценки способностей как экспертов, так и новичков выполнять и устранять неисправности по безопасному протоколу, состоящему из стандартных лабораторных экспериментальных задач.
Эти задачи могут включать трансформацию (например, введение чужеродного генетического материала в организм хозяина), культуру клеток (например, поддержание и размножение клеток in vitro) и деление клеток (например, с помощью центрифугирования). Изучая повышение эффективности и точности выполнения задач благодаря GPT-4o, компании хотят количественно оценить, как граничные модели могут повысить квалификацию как существующих профессионалов, так и начинающих в решении реальных биологических задач.
«Лос-Аламосская национальная лаборатория была пионером в исследовании безопасности, и мы с нетерпением ждем совместной работы над новыми и надежными оценками безопасности для передовых моделей ИИ, поскольку возможности продолжают стремительно совершенствоваться. Эта совместная работа не только подчеркивает потенциал мультимодальных моделей ИИ, таких как GPT-4o, для поддержки научных исследований, но также подчеркивает критическую важность сотрудничества частного и государственного секторов как в использовании инноваций, так и в обеспечении безопасности. С нетерпением ожидая результатов этих оценок, мы надеемся, что это партнерство поможет установить новые стандарты безопасности и эффективности ИИ в науке, прокладывая путь для будущих инноваций, которые принесут пользу человечеству», — заявили в OpenAI.
Напомним, что соучредитель OpenAI создал новый ИИ-стартап. Илья Суцкевер, один из соучредителей OpenAI, основал новую компанию Safe Superintelligence Inc. (SSI) всего через месяц после того, как официально покинул OpenAI.
Ознакомьтесь с другими популярными материалами:
Apple и Microsoft отказались от мест в правлении OpenAI: причина
OpenAI выпустила новую версию ChatGPT: что умеет
Сэм Альтман рассказал, каким будет будущее искусственного интеллекта
По материалам: OpenAI.