Эксперт по политике OpenAI Майлз Брандейдж уходит в отставку на фоне запуска новых моделей

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как исследователь, внимательно следящий за развитием событий в OpenAI, я считаю уход Майлза Брандейджа значительным сдвигом в политике и этике ИИ. Работая с Брандейджем во время его работы в OpenAI, становится ясно, что он сыграл ключевую роль в формировании культуры безопасности компании и обеспечении этического руководства для руководителей.

Проработав шесть лет в OpenAI в качестве старшего советника по готовности AGI, Майлз Брандейдж решил уйти из компании. В своей прощальной записке он упомянул, что сосредоточится на исследованиях политики в области искусственного интеллекта за пределами технологического сектора.

На этом этапе важно отметить, что его действия происходят в тот момент, когда OpenAI под руководством Сэма Альтмана сталкивается с некоторыми внутренними проблемами и изменениями. Эти изменения включают запуск инновационных продуктов, таких как модели согласованности, которые предназначены для стимулирования развития искусственного интеллекта.

Эксперт по политике OpenAI Майлз Брандейдж уходит в отставку

Еще в 2018 году я присоединился к сообществу OpenAI и с тех пор активно участвую в решении политических вопросов и обеспечении аспектов безопасности передовых технологий искусственного интеллекта. Значительная часть моего вклада сосредоточена на оптимальном использовании и управлении передовыми системами искусственного интеллекта, такими как ChatGPT.

В течение нескольких лет Брандейдж играл значительную роль в формировании инициативы красной команды нашей компании и сыграл важную роль в создании отчетов «системного анализа», в которых подчеркиваются преимущества и уязвимости архитектуры моделей искусственного интеллекта OpenAI.

В качестве члена группы готовности к общему искусственному интеллекту Брандейдж давал советы по этике руководителям, в том числе генеральному директору Сэму Альтману, по вопросам, связанным с ИИ. Он сыграл решающую роль в формировании культуры безопасности OpenAI на важном этапе роста и развития компании.

В своей социальной сети Брандейдж заявил, что работа в OpenAI дает исключительно значительный шанс, подчеркнув, что решение уйти в отставку было трудным. Он восхищался целями компании, но в ходе дебатов по политике в области ИИ подчеркнул необходимость привлечения дополнительных независимых исследователей.

Переход на фоне смены руководства

Уход Майлза Брандейджа из OpenAI имеет большое значение, учитывая, что он совпадает с недавним уходом технического директора Миры Мурати и вице-президента по исследованиям Баррета Зофа. Сэм Альтман, поддерживающий решение Брандейджа, считает, что исследовательская работа, которую Брандейдж намерен проводить за пределами OpenAI, в конечном итоге принесет пользу компании.

Подразделение экономических исследований, которое раньше входило в группу готовности AGI, теперь находится под управлением нового главного экономиста OpenAI Ронни Чаттерджи. Джошуа Ачиам, руководитель отдела согласования миссии, возьмет на себя некоторые обязанности, которые ранее в проектах выполнял Брандейдж.

Предстоящее внимание Майлза Брандейджа сместится в сторону изучения регулирования ИИ, его влияния на экономику и обеспечения безопасности будущего развития ИИ. Он подчеркивает, что эти аспекты имеют решающее значение для решения проблем, связанных с внедрением ИИ в различных отраслях, включая применение моделей согласованности.

Модели согласованности и новые разработки искусственного интеллекта

В то же время компания OpenAI Сэма Альтмана представила модели согласованности — новую стратегию повышения скорости процессов генерации выборки ИИ. В отличие от традиционных диффузионных моделей, эти новые модели разработаны для более быстрого получения высококачественных образцов, что знаменует собой существенный шаг вперед в технологии искусственного интеллекта.

Внедрение этих новых моделей является ключевым аспектом стратегии нашей компании по расширению ее общих мощностей и решению операционных проблем, особенно после получения инвестиций в размере 6,6 миллиардов долларов.

Появление моделей согласованности совпадает с усилением критики в адрес деятельности компании, в частности с обвинениями в нарушении авторских прав в процессе обучения моделей ИИ. Предыдущие сотрудники OpenAI, такие как Сучир Баладжи, выразили опасения по поводу методов компании, что подогрело продолжающуюся дискуссию о соответствующем регулировании технологий искусственного интеллекта.

Смотрите также

2024-10-23 23:10