Исполнительный директор OpenAI Ян Лейке уходит в отставку и призывает к ужесточению мер безопасности AGI

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как криптоинвестор, проявляющий большой интерес к искусственному интеллекту и его этическим последствиям, я нахожу уход Яна Лейке из OpenAI глубоко тревожным. Его опасения по поводу приоритетов компании и пренебрежения исследованиями безопасности резонируют со мной, поскольку я считаю, что разработка передовых систем искусственного интеллекта несет в себе огромные риски, которые необходимо решать активно.


Ян Лейке, занимающий должность руководителя отдела согласования в OpenAI и возглавляющий команду Superalignment, решил расстаться с компанией. Сообщается, что его уход был вызван опасениями по поводу направления OpenAI, которое, по его мнению, все больше смещается в сторону разработки продуктов в ущерб приоритету безопасности ИИ.

17 мая Лейке публично заявил о своем уходе из OpenAI через серию постов в социальной сети X, ранее известной как Twitter. Он выразил убежденность в том, что руководство OpenAI ошиблось в выборе основных направлений деятельности, и призвал их уделять больше внимания безопасности и готовности по мере развития общего искусственного интеллекта (AGI).

Проблемы безопасности и внутренние разногласия Яна Лейке

Лейке, проработавший в OpenAI около трёх лет, в своих постах выразил обеспокоенность по поводу упущенных из виду аспектов безопасности ИИ внутри организации. Он подчеркнул, что акцент на создании «привлекательных продуктов» отвлекает от необходимых мер безопасности. В частности, он выразил обеспокоенность по поводу распределения ресурсов и попросил помощи в приобретении достаточной вычислительной мощности для проведения критически важных исследований в области безопасности.

Создание машин, которые умнее человека, — опасное занятие по своей сути.

OpenAI берет на себя огромную ответственность от имени всего человечества.

— Ян Лейке (@janleike), 17 мая 2024 г.

«Лейке отметил, что создание машин, более интеллектуальных, чем люди, сопряжено с неизбежными рисками, предполагающими значительную ответственность со стороны OpenAI».

Как криптоинвестор, внимательно следящий за разработками OpenAI, я заметил два важных события, происходящих примерно в одно и то же время. Во-первых, Илья Суцкевер, видный деятель OpenAI в качестве соруководителя команды «Суперсогласования» и главного ученого, за несколько дней до этого объявил о своей отставке. Его уход был примечателен тем, что он стал соучредителем OpenAI и внес свой вклад в новаторские исследовательские проекты, такие как ChatGPT.

Роспуск Команды Суперсогласования

После недавней волны увольнений OpenAI объявила о расформировании команды Superalignment. Вместо этого их обязанности будут объединены с другими текущими исследовательскими инициативами внутри организации. Bloomberg сообщил, что этот шаг является следствием процесса внутренней реструктуризации, который начался во время кризиса управления в ноябре 2023 года, когда генеральный директор Сэм Альтман был временно отправлен в отставку, а президент Грег Брокман оставил свой пост председателя.

Команда «Superalignment», созданная для устранения экзистенциальных угроз, исходящих от сложных систем искусственного интеллекта, сосредоточилась на разработке методов управления сверхразумным ИИ. Их усилия были признаны решающими в разработке подходов для будущих поколений передовых моделей искусственного интеллекта.

Несмотря на расформирование команды, OpenAI гарантирует, что исследования долгосрочных рисков ИИ будут продолжаться, а Джон Шульман курирует эту инициативу и управляет отдельной командой, ответственной за доработку моделей ИИ после обучения.

Текущая траектория развития и перспективы OpenAI

Уход Лейке и Суцкевера, а также роспуск команды Superalignment вызвали в OpenAI интенсивный анализ и размышления относительно безопасности и управления ИИ. Это произошло после длительного периода размышлений и споров, особенно после первоначального увольнения и последующего восстановления Сэма Альтмана.

Недавние изменения OpenAI и выпуск новой модели предполагают потенциальное отсутствие приоритета безопасности по мере продвижения и внедрения передовых технологий искусственного интеллекта. Их последняя мультимодальная модель GPT-4o демонстрирует впечатляющие возможности взаимодействия с человеком. Тем не менее, этот прогресс также подчеркивает этические проблемы, такие как вторжение в частную жизнь, эмоциональные манипуляции и угрозы кибербезопасности.

Как преданный крипто-инвестор и последователь достижений в области искусственного интеллекта (ИИ), я хочу поделиться своим взглядом на непоколебимую направленность OpenAI на фоне продолжающегося шума. Несмотря на всю суматоху, OpenAI по-прежнему привержена достижению своей главной цели: созданию общего искусственного интеллекта (AGI) безопасным и полезным для человечества способом.

«Я глубоко признателен @janleike за ценный вклад в исследования OpenAI в области центровки и безопасности, и я встревожен тем, что он уходит. Впереди у нас еще много работы, но мы по-прежнему полны решимости довести ее до конца. Я» Скоро поделюсь более подробным сообщением.»

Binance настаивает на ликвидности SHIB, USTC, AGIX и усилении торговли

Смотрите также

2024-05-17 23:28