Как исследователь, внимательно следящий за развитием событий в OpenAI, я считаю уход Майлза Брандейджа значительным сдвигом в политике и этике ИИ. Работая с Брандейджем во время его работы в OpenAI, становится ясно, что он сыграл ключевую роль в формировании культуры безопасности компании и обеспечении этического руководства для руководителей.
Проработав шесть лет в OpenAI в качестве старшего советника по готовности AGI, Майлз Брандейдж решил уйти из компании. В своей прощальной записке он упомянул, что сосредоточится на исследованиях политики в области искусственного интеллекта за пределами технологического сектора.
На этом этапе важно отметить, что его действия происходят в тот момент, когда OpenAI под руководством Сэма Альтмана сталкивается с некоторыми внутренними проблемами и изменениями. Эти изменения включают запуск инновационных продуктов, таких как модели согласованности, которые предназначены для стимулирования развития искусственного интеллекта.
Эксперт по политике OpenAI Майлз Брандейдж уходит в отставку
Еще в 2018 году я присоединился к сообществу OpenAI и с тех пор активно участвую в решении политических вопросов и обеспечении аспектов безопасности передовых технологий искусственного интеллекта. Значительная часть моего вклада сосредоточена на оптимальном использовании и управлении передовыми системами искусственного интеллекта, такими как ChatGPT.
В течение нескольких лет Брандейдж играл значительную роль в формировании инициативы красной команды нашей компании и сыграл важную роль в создании отчетов «системного анализа», в которых подчеркиваются преимущества и уязвимости архитектуры моделей искусственного интеллекта OpenAI.
В качестве члена группы готовности к общему искусственному интеллекту Брандейдж давал советы по этике руководителям, в том числе генеральному директору Сэму Альтману, по вопросам, связанным с ИИ. Он сыграл решающую роль в формировании культуры безопасности OpenAI на важном этапе роста и развития компании.
В своей социальной сети Брандейдж заявил, что работа в OpenAI дает исключительно значительный шанс, подчеркнув, что решение уйти в отставку было трудным. Он восхищался целями компании, но в ходе дебатов по политике в области ИИ подчеркнул необходимость привлечения дополнительных независимых исследователей.
Переход на фоне смены руководства
Уход Майлза Брандейджа из OpenAI имеет большое значение, учитывая, что он совпадает с недавним уходом технического директора Миры Мурати и вице-президента по исследованиям Баррета Зофа. Сэм Альтман, поддерживающий решение Брандейджа, считает, что исследовательская работа, которую Брандейдж намерен проводить за пределами OpenAI, в конечном итоге принесет пользу компании.
Подразделение экономических исследований, которое раньше входило в группу готовности AGI, теперь находится под управлением нового главного экономиста OpenAI Ронни Чаттерджи. Джошуа Ачиам, руководитель отдела согласования миссии, возьмет на себя некоторые обязанности, которые ранее в проектах выполнял Брандейдж.
Предстоящее внимание Майлза Брандейджа сместится в сторону изучения регулирования ИИ, его влияния на экономику и обеспечения безопасности будущего развития ИИ. Он подчеркивает, что эти аспекты имеют решающее значение для решения проблем, связанных с внедрением ИИ в различных отраслях, включая применение моделей согласованности.
Модели согласованности и новые разработки искусственного интеллекта
В то же время компания OpenAI Сэма Альтмана представила модели согласованности — новую стратегию повышения скорости процессов генерации выборки ИИ. В отличие от традиционных диффузионных моделей, эти новые модели разработаны для более быстрого получения высококачественных образцов, что знаменует собой существенный шаг вперед в технологии искусственного интеллекта.
Внедрение этих новых моделей является ключевым аспектом стратегии нашей компании по расширению ее общих мощностей и решению операционных проблем, особенно после получения инвестиций в размере 6,6 миллиардов долларов.
Появление моделей согласованности совпадает с усилением критики в адрес деятельности компании, в частности с обвинениями в нарушении авторских прав в процессе обучения моделей ИИ. Предыдущие сотрудники OpenAI, такие как Сучир Баладжи, выразили опасения по поводу методов компании, что подогрело продолжающуюся дискуссию о соответствующем регулировании технологий искусственного интеллекта.
Смотрите также
- Прогнозы криптовалюты DOGS: анализ и прогноз цен на Dogs
- Прогнозы криптовалюты DEGEN: анализ и прогноз цен на Degen (Base)
- Прогнозы криптовалюты NOT: анализ и прогноз цен на NOT
- Прогнозы криптовалюты BB: анализ и прогноз цен на BounceBit
- Прогнозы криптовалюты ZK: анализ и прогноз цен на ZKsync
- 10 лучших криптобирж без KYC в 2024 году
- Прогнозы криптовалюты DYM: анализ и прогноз цен на Dymension
- Прогноз курса: доллар
- Прогнозы криптовалюты KAS: анализ и прогноз цен на Kaspa
- Прогнозы криптовалюты TRB: анализ и прогноз цен на Tellor Tributes
2024-10-23 23:10