Генеральный директор OpenAI приносит извинения за пункт об отмене акций

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как криптоинвестор с опытом работы в технологической отрасли, я внимательно слежу за развитием событий в OpenAI из-за его значительного влияния на исследования и технологии в области искусственного интеллекта. Недавние разногласия вокруг пункта об отмене акций в соглашениях о выходе OpenAI вызвали обеспокоенность среди бывших сотрудников и наблюдателей.


Как исследователь, изучающий последние разработки в OpenAI, я наткнулся на некоторый шум вокруг недавнего обращения генерального директора Сэма Альтмана к обеспокоенности сотрудников по поводу спорного пункта в контрактах об увольнении компании. Этот пункт потенциально позволяет OpenAI аннулировать переданный капитал после прекращения действия при определенных обстоятельствах.

OpenAI, по словам Альтмана, никогда не ссылалась на это положение, и он заверил, что на передачу капитала не влияют никакие соглашения о разделении или неущемлении прав.

Разъяснение OpenAI о вложенном капитале

Как криптоинвестор, я бы выразил это так: я категорически не согласен с включением этого конкретного пункта в прошлые выходные документы. Это была ошибка, и ее следовало опустить.

Как исследователь, участвующий в работе OpenAI, я признаю ошибку, произошедшую под моим руководством, и беру за нее полную ответственность. К сожалению, это редкий случай, когда я чувствовал себя униженным. К сожалению, я не знал о развитии ситуации и теперь понимаю, что не справился со своими обязанностями.

Как криптоинвестор, я бы перефразировал это так: я заверил бывших сотрудников, что если у них возникнут какие-либо опасения по поводу этого пункта, они могут обратиться ко мне лично за разрешением.

Положение об аннулировании акций вызвало у многих обеспокоенность по поводу его предполагаемого использования и возможного неправильного применения. Признав ошибку, Альтман сообщил, что компания изменила свои обычные выездные документы за месяц до решения этих проблем.

Увольнения сотрудников и проблемы безопасности

После нескольких уходов, в том числе Яна Лейке из OpenAI, где он руководил усилиями по согласованию, Альтман предоставил дополнительные объяснения. Лейке, объявивший о своей отставке 17 мая, назвал больший упор на разработку продуктов, а не на безопасность ИИ, как важный фактор в своем решении.

Что касается недавних новостей о том, как openai обращается с капиталом:

Проще говоря, мы никогда не отменяли и не возвращали чей-либо заработанный капитал, и мы не будем делать этого, пока они не подпишут соглашение о разделении или не откажутся согласиться на пакт о неущемлении прав. Понятие «собственный капитал» остается неизменным.

было…

— Сэм Альтман (@sama), 18 мая 2024 г.

Илья Суцкевер, видный деятель в области исследований искусственного интеллекта и один из основателей OpenAI, ранее ушел из компании до того, как указанное вами лицо подал заявление об отставке.

Внутренние стратегии и приоритеты OpenAI привлекли пристальное внимание из-за недавних изменений внутри организации. Критики утверждают, что OpenAI не уделяет достаточного внимания проблемам, связанным с передовыми системами искусственного интеллекта. Ранее OpenAI распустила свою команду Superalignment, объединив ее функции с другими текущими исследовательскими инициативами.

Приверженность OpenAI обеспечению безопасности ИИ

Как криптоинвестор и заинтересованный наблюдатель за технологической индустрией, я заметил, что OpenAI, несмотря на реструктуризацию, по-прежнему привержена обеспечению безопасности ИИ. Генеральный директор Сэм Альтман и президент Грег Брокман подчеркнули важность продолжающихся исследований в этой области. В своем недавнем заявлении Брокман выразил благодарность увольняющимся сотрудникам и заверил общественность, что OpenAI будет и впредь с большой строгостью расставлять приоритеты и решать проблемы безопасности.

Брокман привлек внимание к инициативам OpenAI по устранению потенциальных опасностей и преимуществ общего искусственного интеллекта, содействию глобальному надзору и инициированию исследований безопасности ИИ.

Я рад, что вы цените значительный вклад Яна в OpenAI, и уверяю вас, что его влияние будет ощущаться и после его пребывания здесь. Учитывая любопытство, вызванное его уходом, я подумал, что было бы полезно пролить свет на наше более широкое стратегическое направление.

Во-первых, у нас есть…

— Грег Брокман (@gdb), 18 мая 2024 г.

Он признал, что безопасное создание и внедрение общего искусственного интеллекта (AGI) сопряжено со сложными и неизведанными препятствиями, требующими постоянного совершенствования протоколов безопасности и надзора.

Венесуэла действует жестко в отношении майнинга криптовалют на фоне энергетического дефицита

Смотрите также

2024-05-19 04:24