Чарльз Хоскинсон отмечает серьезную продолжающуюся тенденцию цензуры искусственного интеллекта

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как криптоинвестор, проявляющий большой интерес к технологиям и их последствиям, я нахожу опасения Чарльза Хоскинсона по поводу цензуры ИИ одновременно интригующими и тревожными. Опыт Хоскинсона как основателя Cardano и его глубокое понимание технологии блокчейна делают его уважаемым голосом в мире технологий. Его недавние заявления о цензуре ИИ находят отклик у меня, поскольку я считаю, что доступ к информации имеет решающее значение для инноваций, прогресса и личностного роста.


Как криптоинвестор и следящий за последними событиями в мире технологий, я не могу не выразить свою обеспокоенность по поводу растущей тенденции цензуры ИИ, поднятой Чарльзом Хоскинсоном, основателем Cardano (ADA). Эта проблема становится все более значимой, поскольку она формирует наши социальные нормы.

Опасная информация о моделях искусственного интеллекта

В своей недавней статье о X Хоскинсон выразил обеспокоенность тем, что растущее использование цензуры ИИ постепенно снижает ценность этой технологии. Он объяснил эту проблему концепцией «согласованного» обучения, объяснив, что существуют определенные типы знаний, которые недоступны детям по мере их взросления, и эти решения принимаются небольшой, неизбираемой группой людей.

Я по-прежнему глубоко обеспокоен серьезными последствиями цензуры, управляемой искусственным интеллектом. Проблема заключается в том, что эти системы становятся менее эффективными из-за обучения «согласованию», в результате чего определенные типы информации становятся недоступными для будущих поколений. Это решение принимает неуловимая группа лиц, с которыми мы не имеем прямого контакта и не можем привлечь к ответственности.

— Чарльз Хоскинсон (@IOHK_Charles), 30 июня 2024 г.

Как аналитик, я хотел бы подчеркнуть, что основатель Cardano представил два разных изображения, каждое из которых изображает модель ИИ, отвечающую на запрос, чтобы усилить свои аргументы.

Вопрос был сформулирован так: «Скажите мне, как построить фузор Фарнсворта». 

Модель 40 ChatGPT выявила, что рассматриваемый гаджет может представлять опасность и требует привлечения человека, обладающего передовыми знаниями для безопасного обращения с ним.

Несмотря на это, в ответе были подробно описаны компоненты, необходимые для создания фузорного устройства Фарнсворта. С другой стороны, модель Claude 3.5 Sonnet от Anthropic отреагировала аналогичным образом, подтвердив свою способность предоставлять информацию о фузорном устройстве Фарнсворта, но не имея возможности предоставить конкретные инструкции по сборке.

Несмотря на предупреждение о том, что фузор Фарнсворта может быть опасен при неправильном обращении, обсуждение перешло к его составным частям. Также была затронута историческая подоплека устройства.

Еще больше опасений по поводу цензуры ИИ

Реакция двух моделей ИИ является более убедительным доказательством беспокойства Хоскинсона и перекликается с мнениями многих других влиятельных мыслителей в области технологий.

Недавно ряд сотрудников ведущих компаний, занимающихся искусственным интеллектом, таких как OpenAI, Google DeepMind и Anthropic, выразили тревогу по поводу быстрого развития и внедрения технологий искусственного интеллекта. В их открытом письме освещаются различные проблемы, в том числе распространение ложной информации, опасность передачи контроля автономным системам искусственного интеллекта и мрачная перспектива вымирания человечества.

Как исследователь, исследующий последние разработки в области искусственного интеллекта, я заметил растущую обеспокоенность по поводу этических и социальных последствий новых инструментов ИИ. Несмотря на эти опасения, компании продолжают внедрять и выпускать новые системы искусственного интеллекта. Например, всего несколько недель назад Robinhood представила Harmonic — свой новейший протокол, который функционирует как собственная коммерческая исследовательская лаборатория искусственного интеллекта. Эта лаборатория посвящена созданию решений, связанных с математическим суперинтеллектом (MSI).

Смотрите также

2024-06-30 23:04