Как аналитик с более чем двадцатилетним опытом работы в области искусственного интеллекта и технологий, я одновременно заинтригован и обеспокоен недавними событиями в OpenAI. Уход Лилиан Венг, опытного профессионала, сыгравшего ключевую роль в формировании систем безопасности компании, стал значительной потерей для отрасли.
💸 Портфель замерз? В ФинБолт знают, когда держать, а когда продавать, чтобы оживить твои инвестиции. Не дай эмоциям взять верх!
Присоединиться в TelegramПоследние новости: Лилиан Венг, которая семь лет занимала должность вице-президента по исследованиям и безопасности в OpenAI, решила расстаться с компанией. За время своего пребывания в должности Венг сыграла важную роль в разработке механизмов безопасности OpenAI, что является ключевым аспектом их этического подхода к искусственному интеллекту.
Ее уход, начавшийся 15 ноября, совпадает с недавней тенденцией ухода членов команды OpenAI по безопасности ИИ, включая таких ключевых фигур, как Ян Лейке и Илья Суцкевер. Эти люди совместно курировали команду Superalignment, проект, посвященный обеспечению контроля над высокоинтеллектуальным искусственным интеллектом.
Новости AI: вице-президент OpenAI по безопасности Лилиан Венг уходит в отставку, ссылаясь на необходимость решения новых задач
На сайте X (ранее Twitter) Лилиан Венг недавно поделилась причинами своего ухода из OpenAI, должности, которую она занимала с 2018 года. Венг заявила, что после семи лет работы в компании для нее настал подходящий момент сделать шаг назад и приступить к реализации свежее приключение. Среди своих достижений в OpenAI Венг сыграла значительную роль в развитии команды Safety Systems, которая в конечном итоге расширилась и теперь насчитывает более 80 человек.
Вне всякого сомнения, Вэн объяснила успехи команды, продемонстрировав чувство гордости за их достижения и веру в то, что она будет процветать даже после ее ухода. Тем не менее, отставка Венга подчеркивает повторяющуюся тенденцию в группе безопасности искусственного интеллекта OpenAI: некоторые ее члены выражают обеспокоенность по поводу меняющихся направлений деятельности компании.
Первоначально Вэн стал членом команды робототехники в OpenAI, где они сосредоточились на сложных проектах, таких как обучение роботизированной руки собирать кубик Рубика. Со временем она сместила свою роль в сторону безопасности искусственного интеллекта, в конечном итоге взяв на себя ответственность за надзор за мерами безопасности OpenAI после выпуска GPT-4. Этот переход ознаменовал растущую приверженность Венга обеспечению безопасного развития систем искусственного интеллекта OpenAI.
В недавних новостях AI Вэн не уточнила свои планы, но заявила:
Проработав почти семь лет в OpenAI, мне пора двигаться дальше. Знания, которые я получил там, огромны, и я чувствую себя готовым к новому старту и новым интересным возможностям.
OpenAI распускает команду Superalignment из-за изменения приоритетов безопасности
Недавно OpenAI решила распустить свою группу Superalignment — проект, совместно возглавляемый Яном Лейке и соучредителем Ильей Суцкевером, целью которого было создание средств управления для ИИ со сверхинтеллектуальными возможностями. Это решение вызвало споры о том, уделяет ли OpenAI больше внимания коммерческим предложениям, а не обеспечению безопасности при разработке ИИ.
Согласно последним новостям об искусственном интеллекте, команда лидеров OpenAI во главе с генеральным директором Сэмом Альтманом больше сосредоточилась на выпуске таких продуктов, как GPT-4o — передовая генеративная модель, — вместо того, чтобы углубляться в исследования супервыравнивания. Говорят, что это смещение акцентов привело к отставке Лейке и Суцкевера в начале этого года, а другие члены команды, занимающейся безопасностью и политикой ИИ, также покинули OpenAI.
Илья и OpenAI собираются разойтись, что меня очень печалит. Илья, несомненно, один из самых ярких умов нашего времени, маяк в нашей области и человек, которым я дорожу. Его гений и дальновидность широко признаны; его доброта и сострадание, хотя и менее афишируемые, не менее ценны.
— Сэм Альтман (@sama), 14 мая 2024 г.
Целью команды Superalignment была разработка стратегий контроля за системами искусственного интеллекта, которые могут выполнять задачи столь же сложные, как и люди. Однако их роспуск вызвал беспокойство среди бывших сотрудников и специалистов отрасли, которые опасаются, что сосредоточенность компании на создании продукции может поставить под угрозу соблюдение строгих протоколов безопасности.
Недавно OpenAI представила новую функцию для ChatGPT под названием ChatGPT Search, которая использует сложную модель GPT-40 для предоставления функций мгновенного поиска по различным темам, таким как спортивные результаты, тенденции фондового рынка и текущие события.
Помимо этого, Илон Маск, генеральный директор Tesla, выразил обеспокоенность по поводу потенциальных опасностей, исходящих от ИИ, предсказав вероятность 10-20% того, что разработки ИИ будут вести себя автономно. Выступая на недавнем собрании, Маск призвал к осторожности и этическим дискуссиям при разработке технологий искусственного интеллекта. Он подчеркнул, что быстрое развитие искусственного интеллекта может позволить системам выполнять сложные задачи, аналогичные человеческим возможностям, в течение следующих двух лет.
Смотрите также
- Прогнозы криптовалюты PRIME: анализ и прогноз цен на Echelon Prime
- Прогнозы криптовалюты DOGS: анализ и прогноз цен на Dogs
- Прогноз курса: доллар к бату
- Роснефть акции прогноз. Цена ROSN
- Тема Met Gala 2025 года посвящена черному дендизму. Мы уже упускаем суть
- Прогнозы криптовалюты VANRY: анализ и прогноз цен на Vanar Chain
- 46 самых ожидаемых телешоу 2025 года
- ДВМП акции прогноз. Цена FESH
- Украинские подростки приветствуют нацистским жестом мемориал Холокоста (ФОТО)
- Кремль подтверждает, что Си Цзиньпин из Китая примет участие в праздновании Дня Победы в Москве.
2024-11-09 06:00