Компания OpenAI, известная своими прорывными ИИ-моделями, недавно предприняла ряд важных шагов, чтобы укрепить безопасность своих разработок. Согласно сообщению на официальном сайте, OpenAI начала обучение новой продвинутой ИИ-модели, которая, по их словам, «выведет компанию на следующий уровень возможностей на пути к AGI» (общему искусственному интеллекту).
Параллельно с этим, OpenAI объявила о формировании нового Комитета по безопасности и защите. В его состав вошли ключевые фигуры компании, включая генерального директора Сэма Альтмана, членов совета директоров и старших научных сотрудников. Комитет также планирует привлекать внешних экспертов по безопасности в качестве консультантов.
Первоочередная задача Комитета — провести комплексную оценку и дальнейшее развитие мер безопасности, применяемых OpenAI. На это отведено 90 дней, после чего Комитет представит свои рекомендации совету директоров компании. После рассмотрения и утверждения этих рекомендаций, OpenAI обещает публично поделиться обновленной информацией.
Это решение OpenAI стало ответом на критику, прозвучавшую ранее от бывшего руководителя команды по устранению долгосрочных рисков ИИ, Яна Лейке. Он утверждал, что в компании культура безопасности отошла на второй план по сравнению с разработкой инновационных продуктов.
Эксперты полагают, что создание Комитета по безопасности является важным шагом OpenAI в направлении более ответственного подхода к развитию мощных ИИ-систем. Особую важность это приобретает на фоне ускорения технологического прогресса в области искусственного интеллекта и вызывающих опасения потенциальных рисков. Ожидается, что прозрачность и открытые дискуссии Комитета помогут OpenAI выработать сбалансированный подход, сочетающий инновации и надежные меры безопасности.