+38/050/370-3627
+38/093/220-0872
+38/044/257-2444
Новости

Microsoft, Google, OpenAI и другие крупные IT-компании заключили соглашение AI safety agreement о безопасности ИИ

Microsoft, Google, OpenAI и другие крупные IT-компании заключили соглашение AI safety agreement о безопасности ИИ

Крупнейшие технологические компании собрались вместе, чтобы официально взять на себя обязательства по безопасному развитию искусственного интеллекта . На виртуальной глобальной встрече, организованной лидерами Южной Кореи и Великобритании, представители OpenAI, Microsoft, Google и других компаний обязались обеспечивать прозрачность и контроль в своей работе.

Шестнадцать компаний признали как огромные потенциальные преимущества ИИ, так и риски, если он будет использоваться не по назначению или причинить вред людям. Практические шаги были согласованы, включая публикацию рамок безопасности, отказ от моделей с неуправляемыми рисками и координацию действий с регулирующими органами на международном уровне. Цель состоит в том, чтобы обеспечить этичное поведение систем искусственного интеллекта и избежать любого непреднамеренного вреда по мере развития технологии.

К западным технологическим гигантам присоединились компании из Китая и Ближнего Востока, такие как Tencent, Meituan, Xiaomi и Samsung. Исследователи и инженеры будут оценивать системы на предмет предвзятости или других проблем, которые могут поставить группы в невыгодное положение. Все они намерены тщательно отслеживать свои модели ИИ и получать различные точки зрения на риски перед их развертыванием.

С другой стороны, политические лидеры США, ЕС, Австралии и других стран одобрили обещания и запланировали будущие встречи для поддержания прогресса. Хотя добровольные обязательства являются хорошим началом, политики полагают, что в дальнейшем потребуется некоторое регулирование .

Этот шаг особенно примечателен для OpenAI, которая в последние дни испытывает споры по поводу безопасности ИИ. Буквально на прошлой неделе он закрыл свою команду «сверхсогласования» , которая была сосредоточена на обеспечении безопасности ИИ.

Эта новость появилась после того, как из OpenAI покинули два важных человека — Илья Суцкевер и Ян Лейке . Лейке сказал на X, что уходит, потому что чувствует, что компания недостаточно серьезно относится к безопасности. Он сказал, что команда безопасности изо всех сил пыталась получить ресурсы, необходимые для выполнения своей работы.

Затем Сэм Альтман и Грег Брокман отреагировали на опасения Яна Лейке по поводу безопасности ИИ, заверив общественность, что компания привержена «тщательному тестированию, тщательному рассмотрению и мерам безопасности мирового уровня».

Другие новости