Законодатели Калифорнии пытаются регулировать ИИ, пока не стало слишком поздно. Вот как

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Законодатели Калифорнии пытаются регулировать ИИ, пока не стало слишком поздно. Вот как

Как человек, проработавший в технологической отрасли более десяти лет, я воочию стал свидетелем невероятного потенциала искусственного интеллекта (ИИ), способного произвести революцию в различных отраслях и улучшить нашу жизнь бесчисленными способами. Однако я также понимаю растущую обеспокоенность по поводу безопасности и этических последствий ИИ, особенно когда речь идет о таких проблемах, как предвзятость и дискриминация.

Джейкоб Хилтон четыре года подряд работал в OpenAI, известном стартапе Bay Area. За время своего пребывания в должности он проводил исследования, необходимые для оценки и повышения точности таких моделей, как ChatGPT. Он с оптимизмом смотрит на потенциальные социальные преимущества ИИ, но признает значительные опасности, если им не управлять должным образом.

Хилтон была одной из тринадцати человек, в настоящее время или ранее работающих в OpenAI и Google, которые недавно в этом месяце написали открытое письмо. В этом письме они выразили обеспокоенность по поводу необходимости усиления защиты информаторов, отметив, что слишком широкие соглашения о конфиденциальности создают проблемы.

По словам Хилтон, 33-летнего исследователя некоммерческого исследовательского центра Alignment Research Center в Беркли, сотрудники, которые наиболее тесно связаны с технологией, сталкиваются с наибольшим риском последствий, когда выражают свою обеспокоенность.

Как киноэнтузиаст, я внимательно слежу за ажиотажем в законодательной сфере Калифорнии. Они действуют быстро, чтобы решить проблемы, связанные с ИИ, и с этой целью подготовили около 50 законопроектов. Эти предложения в первую очередь направлены на реализацию мер безопасности в отношении технологий искусственного интеллекта, которые, по мнению некоторых законодателей, могут потенциально нанести вред нашему обществу, если с ними не обращаться осторожно.

Тем не менее, группы защиты интересов крупных технологических компаний утверждают, что предлагаемый закон может помешать изобретениям и оригинальности, что потенциально может привести к тому, что Калифорния лишится своего технологического преимущества и изменит способ производства искусственного интеллекта внутри штата.

Влияние искусственного интеллекта на рабочие места, общество и культуру является значительным и широким, о чем свидетельствуют многочисленные законодательные предложения, направленные на решение соответствующих проблем. Эти законопроекты направлены на решение различных проблем, связанных с ИИ, таких как потенциальная потеря работы, защита данных и предубеждения, связанные с расой.

Одно из предложений, поддержанное возчиками, направлено на усиление человеческого надзора за автономными операциями тяжелых грузовиков посредством законодательства. Международный союз работников сферы обслуживания поддерживает еще один законопроект, направленный на запрет автоматизации или захвата ИИ рабочих мест в колл-центрах, предоставляющих государственные услуги, такие как Medi-Cal. Наконец, сенатор Скотт Винер (демократ от Сан-Франциско) подготовил законопроект, обязывающий компании, создающие крупные модели искусственного интеллекта, проводить испытания на безопасность.

Столкнувшись с критикой за слишком снисходительное отношение к компаниям, занимающимся социальными сетями, политики теперь при администрации Байдена вносят большое количество законопроектов, чтобы принять более жесткие меры против этих технологических гигантов на федеральном уровне и на уровне штатов.

Как рецензент фильмов, размышляющий над проблемой социальных сетей, я пришел к выводу, что мы часто слишком долго ждали, прежде чем заняться негативными последствиями новых технологий. Точно так же, как в фильме, где главный герой игнорирует предупреждающие знаки, что приводит к катастрофическим последствиям, мы видели, как эта ситуация повторяется в социальных сетях.

Как опытный технологический обозреватель с многолетним опытом работы за плечами, я стал свидетелем быстрой эволюции инструментов искусственного интеллекта (ИИ). С моей точки зрения, этот прогресс просто выдающийся. Я видел ИИ в действии: он читал детям сказки на ночь, сортировал заказы в ресторанах быстрого питания и даже помогал создавать музыкальные клипы.

Как преданный кинозритель, я всегда слежу за последними технологическими достижениями, которые обещают произвести революцию в нашем мире. Но даже я был ошеломлен тем, насколько быстро развиваются эти технологии, оставив многих экспертов и меня самого в состоянии удивления. Если мы не сможем действовать сейчас и подождем несколько лет, мы можем столкнуться с последствиями, когда будет уже слишком поздно.

Я большой поклонник законопроекта Винера SB1047, также известного как «Законопроект Винера» или «SB1047», который поддерживается Центром безопасности искусственного интеллекта. Проще говоря, этот закон требует от компаний, разрабатывающих крупные модели искусственного интеллекта (ИИ), проводить проверки безопасности и сохранять за собой право деактивировать модели, над которыми они имеют прямой контроль.

Сторонники законопроекта утверждают, что необходимо предотвратить злоупотребление технологиями искусственного интеллекта, например, разработку биологического оружия или сбои в электросетях. Законодательство также включает в себя обязанность компаниям, занимающимся искусственным интеллектом, создавать каналы для подачи сотрудниками анонимных жалоб, касающихся проблем безопасности. В случае несоблюдения правил безопасности генеральный прокурор штата имеет право подать в суд.

«Мощные технологии, такие как искусственный интеллект, имеют свои преимущества и недостатки, и для меня важно, чтобы положительные последствия значительно превосходили потенциальные опасности», — заявил Винер.

Критики законопроекта, в который входит TechNet — бизнес-альянс, представляющий таких технологических гигантов, как Meta, Google и OpenAI, — рекомендуют законодателям подходить к этому вопросу с осторожностью. Ни Meta, ни OpenAI не ответили на наш запрос о комментариях, а Google предпочла не комментировать этот вопрос.

«Слишком спешка может иметь недостатки, когда дело касается этой технологии», — отметил Дилан Хоффман, исполнительный директор TechNet в Калифорнии и Юго-Западе.

Во вторник комитет Ассамблеи выдвинул законопроект о конфиденциальности и защите прав потребителей. Впоследствии его планируется рассмотреть судебным комитетом Ассамблеи и комитетом по ассигнованиям. Если ему удастся добиться положительного результата в этих комитетах, он перейдет в зал Ассамблеи для дальнейшего обсуждения.

Сторонники законопроекта Винера утверждают, что они решают проблемы общественности. Опрос, проведенный Центром действий по безопасности ИИ среди 800 потенциальных избирателей в Калифорнии, показал, что 86% считают необходимым для Калифорнии установить правила безопасности ИИ. Более того, 77% этих респондентов выразили одобрение проверке безопасности систем искусственного интеллекта.

Хилтон, бывший сотрудник OpenAI, отметил, что в настоящее время компании отдают приоритет безопасности и защищенности, основываясь на своих добровольных обязательствах. Однако он выделил проблему: не существует эффективного способа привлечь их к ответственности за эти обещания.

Новый закон под названием AB 2930 направлен на решение проблемы «алгоритмической предвзятости» на рабочих местах. Это означает, что законопроект призван помешать автоматизированным системам несправедливо ставить людей в невыгодное положение на основании их расы, пола или сексуальной ориентации, когда речь идет о возможностях трудоустройства, заработной плате и увольнении.

В области искусственного интеллекта мы часто сталкиваемся со случаями, когда на результаты влияет предвзятость. (Заявление члена Ассамблеи Ребекки Бахан-Кахан)

В прошлом году законопроект о борьбе с дискриминацией столкнулся с серьезной оппозицией со стороны технологических компаний во время законодательной сессии, что привело к его провалу. На текущей сессии этот законопроект был вновь внесен на рассмотрение при первоначальной поддержке технологических гигантов Workday и Microsoft. Однако их поддержка стала сомнительной, поскольку они выразили обеспокоенность по поводу предлагаемых поправок, которые повысят подотчетность технологических компаний, создающих продукты искусственного интеллекта, чтобы устранить предвзятость.

«Обычно отрасли не требуют регулирования, но, учитывая скептицизм в отношении ИИ в некоторых сообществах, эта инициатива направлена ​​на укрепление доверия к системам ИИ. На мой взгляд, это положительное развитие для отрасли».

Заинтересованные стороны в секторах труда и конфиденциальности данных выражают опасения, что предлагаемый антидискриминационный закон может не обеспечить достаточную защиту от неправомерного использования труда и данных. Критики утверждают, что формулировка законопроекта вместо этого является чрезмерно либеральной.

Чендлер Морс, руководитель отдела общественной политики Workday, выразил поддержку компанией AB 2930 в его первоначальной форме. Однако они все еще оценивают свою позицию относительно последних поправок.

Microsoft отказалась от комментариев.

ИИ представляет опасность, которая находит отклик у голливудских профсоюзов, побуждая их выступать за защитные меры во время прошлогодних забастовок. Гильдия писателей и Гильдия киноактеров-AFTRA работали над обеспечением защиты ИИ для своих членов, но потенциальные опасности этой технологии выходят за рамки трудовых соглашений, по словам Дункана Крэбтри-Ирландия, национального исполнительного директора SAG-AFTRA.

«Крэбтри-Ирландия предположила, что политикам важно действовать быстро и установить правила использования ИИ, предотвращая неконтролируемую ситуацию, подобную эпохе Дикого Запада».

SAG-AFTRA сыграла роль в разработке трех предложенных федеральных законов и двух законопроектов штата Калифорния, касающихся дипфейков. Эти меры направлены на борьбу с вводящими в заблуждение изображениями и видео, часто изображающими знаменитостей. В случае принятия закон предоставит работникам право утверждать контракты, включающие созданные искусственным интеллектом версии их изображений, прежде чем они станут юридически обязательными. Это означает, что профсоюзы или законные представители должны будут представлять работников в таких соглашениях.

Технологические фирмы предостерегают от чрезмерного регулирования: Палата прогресса технологического сектора, которую представляет Тодд О’Бойл, выражает обеспокоенность. Калифорнийские компании, занимающиеся искусственным интеллектом, могут рассмотреть возможность переезда, если контроль со стороны регулирующих органов станет слишком строгим. Законодателям следует помнить о том, что не следует основывать политику на потенциальных опасностях, когда у нас есть возможность использовать эту революционную технологию, которая несет в себе огромный потенциал для роста и процветания на начальных этапах.

Как только правила будут введены в действие, их может быть сложно отменить, предупредил генеральный директор Box Аарон Леви. Его компания, расположенная в Редвуд-Сити и специализирующаяся на облачных вычислениях с интеграцией искусственного интеллекта, включена в эту сферу.

«Леви предположил, что нам нужны более продвинутые модели с большими возможностями и способностями. Как только мы получим эти модели, мы сможем постепенно оценить связанные с ними риски».

Вместо заявления Crabtree-Ireland вы могли бы сказать: «Crabtech-Ireland указала, что технологические компании пытаются затягивать регулирование, делая проблемы более сложными, чем это необходимо, и настаивая на одном всеобъемлющем решении».

Я искренне оспариваю эту идею. Не каждый аспект искусственного интеллекта нужно выяснять сразу.

Смотрите также

2024-07-18 22:11