Новости AI: Новое назначение в OpenAI вызывает новые опасения по поводу конфиденциальности

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как аналитик с опытом работы в области технологий и кибербезопасности, я считаю, что решение OpenAI назначить бывшего генерала армии США Пола М. Накасоне в свой совет директоров является важным шагом в направлении установления приоритетов безопасности своих моделей большого языка (LLM). Обширный опыт Накасоне в руководстве усилиями по обеспечению кибербезопасности в Соединенных Штатах, включая его роль самого долгого руководителя USCYBERCOM и главы АНБ/CSS, несомненно, станет ценным активом для Комитета безопасности OpenAI.


OpenAI, ведущий игрок в области искусственного интеллекта, уделяет особое внимание безопасности LLM (большая языковая модель). Чтобы усилить эти усилия, они пригласили в состав своего уважаемого Совета директоров отставного генерала армии США Пола М. Накасоне.

US General привносит опыт кибербезопасности в OpenAI 

В начале 2024 года генерал Накасоне завершил свою военную карьеру, за время своего пребывания в должности он занимал различные должности в армии США на всех уровнях.

Накасоне сыграл ключевую роль в создании Киберкомандования США, будучи его командующим в течение длительного срока. Кроме того, он курировал Агентство национальной безопасности (АНБ/CSS), обеспечивая защиту цифровых активов Америки и расширяя наши возможности киберзащиты.

Обычно он выполнял свои обязанности совместно с элитными киберкомандами из США, Южной Кореи, Ирака и Афганистана.

Назначение генерала Накасоне в комитет по безопасности и защите OpenAI означает, что его ценный опыт и знания будут использованы в этой важной роли. Этот комитет отвечает за предложение мер безопасности для всех инициатив и мероприятий OpenAI. Это назначение подтверждает стремление OpenAI обеспечить безопасность своих моделей и пользовательских данных, что еще раз подчеркивает растущую важность кибербезопасности по мере того, как технология искусственного интеллекта расширяет свое влияние.

Как криптоинвестор, внимательно следящий за достижениями в области искусственного интеллекта (ИИ), я особенно воодушевлен той ключевой ролью, которую OpenAI под руководством Сэма Альтмана отводит идеям Накасоне. Эти идеи играют важную роль в расширении возможностей OpenAI, позволяя нам глубже понять значение ИИ в укреплении защиты от кибербезопасности. Это приводит к более гибким механизмам обнаружения и реагирования на потенциальные угрозы, тем самым снижая риск кибератак на жизненно важные учреждения, такие как больницы, школы и финансовые учреждения.

Обеспокоенность по поводу отсутствия безопасности на фоне нового внедрения

Как криптоинвестор, я внимательно слежу за последними событиями в мире технологий, и одно объявление, которое привлекло мое внимание, — это недавнее открытие OpenAI своего комитета по безопасности. Я был очень рад узнать об этой инициативе, поскольку это важный шаг на пути к решению проблем, связанных с потенциальными рисками ИИ для людей.

Весьма интригующе, что OpenAI, которую критикуют за привлечение к работе бывшего начальника службы наблюдения Накасоне, оказалась в таком затруднительном положении. Добавление в команду его обширного опыта наблюдения усилило опасения по поводу мониторинга данных в их сотрудничестве с Apple, что еще больше усилило опасения по поводу безопасности.

С моей точки зрения как исследователя, среди сотрудников OpenAI произошли некоторые разногласия из-за споров вокруг организации. Примечательно, что Ян Лейке, который раньше был частью нашей команды, выразил свои опасения по поводу OpenAI. Он подчеркнул, что продвижение продукции, похоже, имеет приоритет над соображениями безопасности внутри компании.

В ходе беседы генерал Накасоне выразил свое согласие с целями OpenAI, опираясь на свой опыт служения обществу.

Смотрите также

2024-06-14 22:59