Как криптоинвестор с опытом работы в технологической отрасли, я внимательно слежу за развитием событий в OpenAI из-за его значительного влияния на исследования и технологии в области искусственного интеллекта. Недавние разногласия вокруг пункта об отмене акций в соглашениях о выходе OpenAI вызвали обеспокоенность среди бывших сотрудников и наблюдателей.
Как исследователь, изучающий последние разработки в OpenAI, я наткнулся на некоторый шум вокруг недавнего обращения генерального директора Сэма Альтмана к обеспокоенности сотрудников по поводу спорного пункта в контрактах об увольнении компании. Этот пункт потенциально позволяет OpenAI аннулировать переданный капитал после прекращения действия при определенных обстоятельствах.
OpenAI, по словам Альтмана, никогда не ссылалась на это положение, и он заверил, что на передачу капитала не влияют никакие соглашения о разделении или неущемлении прав.
Разъяснение OpenAI о вложенном капитале
Как криптоинвестор, я бы выразил это так: я категорически не согласен с включением этого конкретного пункта в прошлые выходные документы. Это была ошибка, и ее следовало опустить.
Как исследователь, участвующий в работе OpenAI, я признаю ошибку, произошедшую под моим руководством, и беру за нее полную ответственность. К сожалению, это редкий случай, когда я чувствовал себя униженным. К сожалению, я не знал о развитии ситуации и теперь понимаю, что не справился со своими обязанностями.
Как криптоинвестор, я бы перефразировал это так: я заверил бывших сотрудников, что если у них возникнут какие-либо опасения по поводу этого пункта, они могут обратиться ко мне лично за разрешением.
Положение об аннулировании акций вызвало у многих обеспокоенность по поводу его предполагаемого использования и возможного неправильного применения. Признав ошибку, Альтман сообщил, что компания изменила свои обычные выездные документы за месяц до решения этих проблем.
Увольнения сотрудников и проблемы безопасности
После нескольких уходов, в том числе Яна Лейке из OpenAI, где он руководил усилиями по согласованию, Альтман предоставил дополнительные объяснения. Лейке, объявивший о своей отставке 17 мая, назвал больший упор на разработку продуктов, а не на безопасность ИИ, как важный фактор в своем решении.
Что касается недавних новостей о том, как openai обращается с капиталом:
Проще говоря, мы никогда не отменяли и не возвращали чей-либо заработанный капитал, и мы не будем делать этого, пока они не подпишут соглашение о разделении или не откажутся согласиться на пакт о неущемлении прав. Понятие «собственный капитал» остается неизменным.
было…
— Сэм Альтман (@sama), 18 мая 2024 г.
Илья Суцкевер, видный деятель в области исследований искусственного интеллекта и один из основателей OpenAI, ранее ушел из компании до того, как указанное вами лицо подал заявление об отставке.
Внутренние стратегии и приоритеты OpenAI привлекли пристальное внимание из-за недавних изменений внутри организации. Критики утверждают, что OpenAI не уделяет достаточного внимания проблемам, связанным с передовыми системами искусственного интеллекта. Ранее OpenAI распустила свою команду Superalignment, объединив ее функции с другими текущими исследовательскими инициативами.
Приверженность OpenAI обеспечению безопасности ИИ
Как криптоинвестор и заинтересованный наблюдатель за технологической индустрией, я заметил, что OpenAI, несмотря на реструктуризацию, по-прежнему привержена обеспечению безопасности ИИ. Генеральный директор Сэм Альтман и президент Грег Брокман подчеркнули важность продолжающихся исследований в этой области. В своем недавнем заявлении Брокман выразил благодарность увольняющимся сотрудникам и заверил общественность, что OpenAI будет и впредь с большой строгостью расставлять приоритеты и решать проблемы безопасности.
Брокман привлек внимание к инициативам OpenAI по устранению потенциальных опасностей и преимуществ общего искусственного интеллекта, содействию глобальному надзору и инициированию исследований безопасности ИИ.
Я рад, что вы цените значительный вклад Яна в OpenAI, и уверяю вас, что его влияние будет ощущаться и после его пребывания здесь. Учитывая любопытство, вызванное его уходом, я подумал, что было бы полезно пролить свет на наше более широкое стратегическое направление.
Во-первых, у нас есть…
— Грег Брокман (@gdb), 18 мая 2024 г.
Он признал, что безопасное создание и внедрение общего искусственного интеллекта (AGI) сопряжено со сложными и неизведанными препятствиями, требующими постоянного совершенствования протоколов безопасности и надзора.
Венесуэла действует жестко в отношении майнинга криптовалют на фоне энергетического дефицита
Смотрите также
- Прогноз курса: доллар к бату
- Почетный караул покинул пост, чтобы помочь раненому ветерану у мемориала Второй мировой войны (ВИДЕО)
- Прогнозы криптовалюты DOGS: анализ и прогноз цен на Dogs
- Сезон CATS Airdrop 2: что нужно знать о дате листинга и праве на участие
- Прогнозы криптовалюты ENA: анализ и прогноз цен на Ethena
- Этель Кейн полностью взорвала социальные сети из-за недавнего политического заявления
- Озон Фармацевтика акции прогноз. Цена OZPH
- Прогнозы криптовалюты KAS: анализ и прогноз цен на Kaspa
- Прогнозы криптовалюты AIDOGE: анализ и прогноз цен на ArbDoge AI
- В сериале HBO «Я не монстр: убийства Лоис Рисс» рассказывается, что заставило женщину убить своего мужа
2024-05-19 04:24