Google, Microsoft, Nvidia и OpenAI запускают CoSAI для безопасности ИИ

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как человек, внимательно следивший за развитием искусственного интеллекта (ИИ) и его потенциальным влиянием на кибербезопасность, я считаю, что создание CoSAI — это крайне необходимая инициатива для решения уникальных проблем, связанных с безопасностью ИИ. Имея опыт работы в области кибербезопасности и исследований в области искусственного интеллекта, я своими глазами стал свидетелем фрагментарности ландшафта безопасности искусственного интеллекта и непоследовательных рекомендаций, с которыми сталкиваются разработчики.

Крупнейшие технологические компании, в том числе Google, Microsoft, Nvidia и OpenAI, среди прочих, сформировали Коалицию за безопасный и надежный ИИ (CoSTAI) для решения проблем безопасности в области искусственного интеллекта (ИИ). Объявление было сделано на форуме безопасности в Аспене. Цель CoSTAI — разработать строгие рекомендации и протоколы безопасности для создания и внедрения систем искусственного интеллекта, поскольку в этой области наблюдается быстрый прогресс.

Google объявляет о CoSAI для безопасности ИИ

Инициатива Google CoSAI (Коалиция за безопасный и надежный искусственный интеллект), в которую входят крупные технологические компании и организации, направлена ​​на коллективное решение проблем безопасности, связанных с искусственным интеллектом. В число основателей этого альянса входят Amazon, Anthropic, Cisco, Cohere, IBM, Intel, Microsoft, Nvidia, OpenAI, PayPal и Wiz.

Как человек, проработавший в области искусственного интеллекта более десяти лет, я искренне поддерживаю усилия этой коалиции по приданию приоритета безопасности и надежности при проектировании систем ИИ. Имея обширный опыт работы с методологиями с открытым исходным кодом и стандартизированными структурами, я считаю, что этот подход не только эффективен, но и необходим в современном быстро развивающемся технологическом ландшафте.

CoSAI стремится развивать обширные протоколы безопасности для искусственного интеллекта (ИИ), борясь как с нынешними, так и с будущими угрозами. Более того, коалиция намерена сконцентрироваться на трех основных областях на начальном этапе: обеспечение безопасности цепочки поставок программного обеспечения для систем ИИ, подготовка защитников к меняющимся проблемам кибербезопасности и создание структур управления для безопасности ИИ.

Эти рабочие направления сосредоточены на создании оптимальных процедур, методов оценки рисков и контрмер для усиления безопасности ИИ во всем секторе.

Сосредоточьтесь на безопасности ИИ

Как криптоинвестор, интересующийся сектором безопасности ИИ, я могу сказать вам, что создание CoSAI является значительным событием. Раньше разработчикам, таким как я, приходилось ориентироваться в фрагментированной среде, когда дело доходило до обеспечения безопасности систем искусственного интеллекта. Руководящие принципы безопасности ИИ были непоследовательными и разрозненными, что усложняло точную оценку рисков, характерных для ИИ, и принятие эффективных мер по их смягчению. CoSAI стремится решить эту проблему, предоставляя более унифицированный и комплексный подход к безопасности ИИ.

Тем не менее, CoSAI стремится установить последовательные процедуры и укрепить протоколы безопасности, укрепляя доверие между сторонами по всему миру. Дэвид Лабианка, сопредседатель правления CoSAI от Google, подчеркнул важность того, чтобы знания и достижения в области безопасного внедрения ИИ были доступны всем. Он заметил:

Потребность сделать важнейшие знания и достижения в области искусственного интеллекта доступными для всех привела к созданию CoSAI.

Омар Сантас из Cisco разделил ту же точку зрения, подчеркнув необходимость совместной работы известных компаний и профессионалов для разработки строгих правил безопасности ИИ. Платформа с открытым исходным кодом CoSAI поощряет предоставление технической информации любым заинтересованным лицам.

OASIS, международная организация, ответственная за стандартизацию CoSAI, приветствует дополнительную финансовую поддержку со стороны компаний, занимающихся созданием и внедрением искусственного интеллекта.

С быстрым развитием технологии искусственного интеллекта (ИИ) значение CoSAI в реализации согласованных протоколов безопасности становится все более важным. CoSAI фокусируется на выявлении и смягчении отдельных рисков, присущих системам искусственного интеллекта, чтобы способствовать ответственной и безопасной разработке и развертыванию.

Альянс, созданный лидерами технологической отрасли, представляет собой существенный прогресс в миссии по созданию надежного и безопасного искусственного интеллекта.

Смотрите также

2024-07-18 19:57