OpenAI обвиняется в незаконном замалчивании беспокойства сотрудников

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как исследователь с опытом работы в области технологий и трудового законодательства, я нахожу обвинения в адрес OpenAI тревожными и тревожными. Обвинения информаторов в незаконном ограничении сообщений сотрудников о проблемах безопасности находят отклик у меня, учитывая мой опыт в этой области. Для компаний, особенно тех, которые занимаются передовыми технологиями, такими как искусственный интеллект, крайне важно уделять приоритетное внимание прозрачности и соблюдать федеральные меры защиты информаторов.


Комиссия по ценным бумагам и биржам (SEC) расследует OpenAI, поскольку осведомители утверждают, что компания незаконно скрывала сообщения сотрудников, касающиеся вопросов безопасности.

OpenAI обвиняется в незаконном замалчивании беспокойства сотрудников

В переписке осведомителя утверждается, что OpenAI предоставила своим сотрудникам чрезмерно ограничительные договоры об увольнении и конфиденциальности.

По слухам, условия этих соглашений включали положения о потенциальных последствиях, если сотрудники сообщат об OpenAI государственным органам для расследования.

В письме, направленном комиссару SEC, отправленном ранее в этом месяце, указывалось, что OpenAI вынудила своих сотрудников отказаться от права на федеральные льготы для информаторов и запросила одобрение у корпорации, прежде чем поделиться подробностями с регулирующими органами.

Нарушение федеральных мер защиты информаторов

Информаторы подчеркнули, что эти контракты нарушают федеральные законы, призванные защитить лиц, которые намереваются разоблачить корпоративные правонарушения, такие как мошенничество, без требования к ним раскрытия своей личности или увольнения.

Будучи исследователем, расследующим использование контрактов на использование технологий ИИ, я наткнулся на еще одного анонимного источника, который выразил обеспокоенность по поводу возможных последствий, которые эти соглашения могут иметь для готовности сотрудников раскрывать потенциальные опасности, связанные с системами ИИ.

Представитель OpenAI Ханна Вонг заявила:

«Сотрудники могут конфиденциально сообщать о проблемах в соответствии с нашей политикой информирования о нарушениях, и, учитывая важность этой темы, мы считаем, что она заслуживает открытого диалога. Следовательно, мы пересмотрели нашу политику увольнения, чтобы больше не включать положения о неунижении».

Растущая обеспокоенность по поводу безопасности ИИ

Критики высказали возражения на фоне недавнего перехода OpenAI из некоммерческой организации, занимающейся общественным благосостоянием, в предприятие, ориентированное на получение прибыли. Основная проблема заключается в воспринимаемом приоритете прибыли над проблемами безопасности. Более того, были выдвинуты обвинения в том, что OpenAI выпустила непроверенную новую модель ИИ, не придерживаясь установленных протоколов безопасности, и сделала это в спешке.

После этого события стали расти опасения по поводу потенциального вреда, причиняемого ИИ, например, его применения при создании биологического оружия или проведении кибератак.

Сенатор Чак Грассли заявил:

Похоже, что политика и процедуры OpenAI могут препятствовать информаторам сообщать о нарушениях и получать соответствующую компенсацию за защищенное раскрытие информации.

Грассли подчеркнул решающую роль, которую информаторы играют в оказании помощи федеральному правительству в управлении рисками, связанными с технологиями искусственного интеллекта.

Позиция Сэма Альтмана

Основываясь на отчете Coingape, Сэм Альтман, генеральный директор OpenAI, предложил объяснения относительно соглашений о выходе в мае, поскольку общественный интерес к этому вопросу вырос.

Несколько сотрудников, в том числе Ян Лейке, недавно решили покинуть компанию. Лейке заявил, что бизнес смещает свое внимание с обеспечения безопасности ИИ на приоритет разработки продуктов.

Генеральный директор OpenAI исправил недоразумение относительно положения в прошлых документах о прекращении деятельности о потенциальном отзыве акций. Он подчеркнул, что это условие никогда не выполнялось OpenAI, и заверил, что любые переданные опционы на акции остаются в безопасности независимо от результатов текущего контракта.

JPMorgan и Wells Fargo имеют миллиарды плохих долгов, вмешаются ли федералы

Смотрите также

2024-07-14 03:57