Как исследователь, внимательно следящий за развитием событий в OpenAI, я считаю уход Майлза Брандейджа значительным сдвигом в политике и этике ИИ. Работая с Брандейджем во время его работы в OpenAI, становится ясно, что он сыграл ключевую роль в формировании культуры безопасности компании и обеспечении этического руководства для руководителей.
🌊 Рынок качает – не упусти волну! В CryptoWave знают, когда ловить хайп, а когда лучше отступить. Плыви на гребне тренда!
Присоединиться в TelegramПроработав шесть лет в OpenAI в качестве старшего советника по готовности AGI, Майлз Брандейдж решил уйти из компании. В своей прощальной записке он упомянул, что сосредоточится на исследованиях политики в области искусственного интеллекта за пределами технологического сектора.
На этом этапе важно отметить, что его действия происходят в тот момент, когда OpenAI под руководством Сэма Альтмана сталкивается с некоторыми внутренними проблемами и изменениями. Эти изменения включают запуск инновационных продуктов, таких как модели согласованности, которые предназначены для стимулирования развития искусственного интеллекта.
Эксперт по политике OpenAI Майлз Брандейдж уходит в отставку
Еще в 2018 году я присоединился к сообществу OpenAI и с тех пор активно участвую в решении политических вопросов и обеспечении аспектов безопасности передовых технологий искусственного интеллекта. Значительная часть моего вклада сосредоточена на оптимальном использовании и управлении передовыми системами искусственного интеллекта, такими как ChatGPT.
В течение нескольких лет Брандейдж играл значительную роль в формировании инициативы красной команды нашей компании и сыграл важную роль в создании отчетов «системного анализа», в которых подчеркиваются преимущества и уязвимости архитектуры моделей искусственного интеллекта OpenAI.
В качестве члена группы готовности к общему искусственному интеллекту Брандейдж давал советы по этике руководителям, в том числе генеральному директору Сэму Альтману, по вопросам, связанным с ИИ. Он сыграл решающую роль в формировании культуры безопасности OpenAI на важном этапе роста и развития компании.
В своей социальной сети Брандейдж заявил, что работа в OpenAI дает исключительно значительный шанс, подчеркнув, что решение уйти в отставку было трудным. Он восхищался целями компании, но в ходе дебатов по политике в области ИИ подчеркнул необходимость привлечения дополнительных независимых исследователей.
Переход на фоне смены руководства
Уход Майлза Брандейджа из OpenAI имеет большое значение, учитывая, что он совпадает с недавним уходом технического директора Миры Мурати и вице-президента по исследованиям Баррета Зофа. Сэм Альтман, поддерживающий решение Брандейджа, считает, что исследовательская работа, которую Брандейдж намерен проводить за пределами OpenAI, в конечном итоге принесет пользу компании.
Подразделение экономических исследований, которое раньше входило в группу готовности AGI, теперь находится под управлением нового главного экономиста OpenAI Ронни Чаттерджи. Джошуа Ачиам, руководитель отдела согласования миссии, возьмет на себя некоторые обязанности, которые ранее в проектах выполнял Брандейдж.
Предстоящее внимание Майлза Брандейджа сместится в сторону изучения регулирования ИИ, его влияния на экономику и обеспечения безопасности будущего развития ИИ. Он подчеркивает, что эти аспекты имеют решающее значение для решения проблем, связанных с внедрением ИИ в различных отраслях, включая применение моделей согласованности.
Модели согласованности и новые разработки искусственного интеллекта
В то же время компания OpenAI Сэма Альтмана представила модели согласованности — новую стратегию повышения скорости процессов генерации выборки ИИ. В отличие от традиционных диффузионных моделей, эти новые модели разработаны для более быстрого получения высококачественных образцов, что знаменует собой существенный шаг вперед в технологии искусственного интеллекта.
Внедрение этих новых моделей является ключевым аспектом стратегии нашей компании по расширению ее общих мощностей и решению операционных проблем, особенно после получения инвестиций в размере 6,6 миллиардов долларов.
Появление моделей согласованности совпадает с усилением критики в адрес деятельности компании, в частности с обвинениями в нарушении авторских прав в процессе обучения моделей ИИ. Предыдущие сотрудники OpenAI, такие как Сучир Баладжи, выразили опасения по поводу методов компании, что подогрело продолжающуюся дискуссию о соответствующем регулировании технологий искусственного интеллекта.
Смотрите также
- Украинцы опасаются окружения на передовой — CNN
- Роснефть акции прогноз. Цена ROSN
- Прогнозы криптовалюты IP: анализ и прогноз цен на Story
- Прогноз курса: евро к шекелю
- Прогнозы криптовалюты DOGS: анализ и прогноз цен на Dogs
- СПБ Биржа акции прогноз. Цена SPBE
- Участник BTS Шуга нарушает молчание из-за инцидента с вождением в нетрезвом виде
- Прогноз курса: доллар к бату
- Прогнозы криптовалюты ARRR: анализ и прогноз цен на Pirate Chain
- AERGO/USD
2024-10-23 23:10