Новости AI: ООН призывает к глобальному управлению ИИ, поскольку мета и OpenAI сталкиваются с проблемами

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как опытный аналитик с многолетним опытом работы в области технологий и политики, я считаю, что недавний призыв ООН к глобальному управлению ИИ стал поворотным моментом в нашу цифровую эпоху. Став свидетелем быстрого развития технологий и их влияния на общество, я понимаю безотлагательность создания единого подхода к регулированию ИИ. Вызывает обеспокоенность растущее доминирование крупных транснациональных корпораций в этой области, а также отсутствие прозрачности между лабораториями искусственного интеллекта и остальным миром.

Обновление AI: Организация Объединенных Наций предложила семь стратегий по минимизации потенциальных рисков, связанных с искусственным интеллектом (ИИ), на основе предложений консультативной группы ООН. В итоговом отчете этой консультативной группы подчеркивается необходимость целостной стратегии регулирования ИИ, которая будет обсуждаться на предстоящем заседании ООН позднее в этом месяце.

Новости AI: ООН призывает к глобальному управлению искусственным интеллектом

Консультативная группа, состоящая из 39 членов, выразила обеспокоенность по поводу того факта, что крупные международные корпорации возглавляют развитие технологий искусственного интеллекта тревожными темпами. Группа подчеркнула, что эффективное глобальное управление ИИ имеет решающее значение, поскольку разработка и применение ИИ выходит за рамки простых рыночных сил.

Как рекомендовано в отчете Организации Объединенных Наций, предлагается создать команду, роль которой будет заключаться в обмене надежной и беспристрастной информацией об искусственном интеллекте с мировым сообществом, помогая устранить любые существующие пробелы в знаниях между лабораториями ИИ и остальным миром.

Рекомендации включают создание глобального фонда ИИ для устранения различий в потенциале и сотрудничестве, особенно в развивающихся странах, которые не могут позволить себе использовать ИИ. В отчете также представлены рекомендации о том, как создать глобальную структуру данных искусственного интеллекта с целью повышения прозрачности и подотчетности, а также установления политического диалога, который будет направлен на решение всех вопросов, касающихся управления искусственным интеллектом.

В отчете говорится, что, хотя в настоящее время не предложено ни одной новой международной организации для регулирования, может возникнуть необходимость в более сильной глобальной организации, наделенной полномочиями по надзору за технологическим регулированием, если потенциальные риски будут усиливаться. В отличие от некоторых стран, таких как США, которые недавно приняли «дорожную карту действий» по контролю над искусственным интеллектом в военных целях – подход, который Китай до сих пор не поддержал.

Призывы к гармонизации регулирования в Европе

Одновременно с достижениями в области технологий искусственного интеллекта влиятельные фигуры, такие как Ян ЛеКун, главный научный сотрудник Meta по искусственному интеллекту, а также многочисленные европейские руководители и ученые выразили желание понять, как правила, касающиеся искусственного интеллекта, будут применяться в ЕС. В открытом письме они подчеркнули, что у ЕС есть уникальная возможность получить экономическую выгоду от ИИ при условии, что правила не удушают академическую свободу и не препятствуют этическому развитию ИИ.

Из-за нормативных препятствий будущая многогранная модель искусственного интеллекта Meta под названием Llama не будет доступна в Европейском Союзе. Эта ситуация подчеркивает противоречие между технологическим прогрессом и регулирующим надзором.

Как обеспокоенный криптоинвестор, я присоединился к открытому письму, написанному вместе с Марком Цукербергом, европейскими руководителями и учеными, выступая за ясность в нормативной базе в отношении ИИ на нашем континенте. Потребность в определенности имеет первостепенное значение для стимулирования инноваций, защиты потребителей и обеспечения ответственного развития этой преобразующей технологии.

Европейский Союз готов развивать технологию искусственного интеллекта и получать от нее экономические выгоды при условии, что нормативные акты не будут препятствовать созданию открытой среды.

— Ян ЛеКун (@ylecun), 19 сентября 2024 г.

В открытом письме утверждается, что чрезмерно строгие правила могут помешать ЕС продвигаться в этой области, и содержится призыв к политикам реализовать меры, которые позволят развивать надежную индустрию искусственного интеллекта, одновременно устраняя риски. В письме подчеркивается необходимость принятия последовательных законов, которые могут способствовать развитию искусственного интеллекта, не препятствуя его развитию, как это было в предупреждении об ОС Apple iPhone, о котором сообщает CoinGape.

OpenAI реструктурирует надзор за безопасностью на фоне критики

Более того, была некоторая дискуссия о позиции OpenAI по вопросам безопасности и регулирования ИИ. Этот разговор возник из-за критики со стороны политических деятелей в США и бывших сотрудников, которая привела к тому, что генеральный директор Сэм Альтман ушел из комитета по безопасности и безопасности компании.

Как криптоинвестор, я заметил изменения в роли этого комитета. Изначально он был создан с основной целью обеспечения безопасности технологий искусственного интеллекта. Теперь он был реструктурирован в автономную организацию, которая может приостанавливать запуск новых моделей до тех пор, пока не будут должным образом устранены любые потенциальные риски для безопасности.

В недавно сформированный комитет по надзору входят такие люди, как Николь Селигман, бывший генерал армии США Пол Накасоне и генеральный директор Quora Адам Д’Анджело. Их работа — следить за тем, чтобы протоколы безопасности, установленные OpenAI, соответствовали целям организации. Это недавнее заявление UN AI последовало за заявлениями бывших исследователей о том, что OpenAI уделяет больше внимания финансовой выгоде, чем ответственному управлению искусственным интеллектом.

Смотрите также

2024-09-20 00:22