Пост «Заставьте ИИ доказать, что ему нечего скрывать» появился на BitcoinEthereumNews.com. Мнение: Авинаш Лакшман, основатель и генеральный директор Weilliptic Современная технологическая культура любит сначала решать увлекательную часть — умную модель, привлекательные для публики функции — и рассматривать ответственность и этику как дополнения на будущее. Но когда базовая архитектура ИИ непрозрачна, никакое последующее устранение неполадок не может прояснить и структурно улучшить то, как генерируются или манипулируются результаты. Именно так мы получаем случаи, когда Grok называет себя «фальшивым Илоном Маском», а Claude Opus 4 от Anthropic прибегает ко лжи и шантажу после случайного удаления кодовой базы компании. С момента появления этих заголовков комментаторы обвиняли инженерию промптов, политику контента и корпоративную культуру. И хотя все эти факторы играют роль, фундаментальный недостаток — архитектурный. Мы просим системы, никогда не предназначенные для проверки, вести себя так, как будто прозрачность является их естественной функцией. Если мы хотим, чтобы люди доверяли ИИ, сама инфраструктура должна предоставлять доказательства, а не заверения. В тот момент, когда прозрачность встраивается в базовый слой ИИ, доверие становится не ограничением, а стимулом. Этика ИИ не может быть второстепенной Что касается потребительских технологий, этические вопросы часто рассматриваются как соображения после запуска, которые нужно решать после масштабирования продукта. Этот подход напоминает строительство тридцатиэтажной офисной башни до найма инженера, чтобы подтвердить, что фундамент соответствует нормам. Вам может повезти на какое-то время, но скрытый риск тихо накапливается, пока что-то не сдастся. Сегодняшние централизованные инструменты ИИ ничем не отличаются. Когда модель одобряет мошенническую кредитную заявку или галлюцинирует медицинский диагноз, заинтересованные стороны потребуют и заслуживают аудиторского следа. Какие данные привели к этому ответу? Кто настроил модель и как? Какое ограждение не сработало? Большинство платформ сегодня могут только затуманивать и отклонять вину. Решения ИИ, на которые они полагаются, никогда не были предназначены для хранения таких записей, поэтому они не существуют и не могут быть созданы задним числом. Инфраструктура ИИ, которая доказывает себя Хорошая...Пост «Заставьте ИИ доказать, что ему нечего скрывать» появился на BitcoinEthereumNews.com. Мнение: Авинаш Лакшман, основатель и генеральный директор Weilliptic Современная технологическая культура любит сначала решать увлекательную часть — умную модель, привлекательные для публики функции — и рассматривать ответственность и этику как дополнения на будущее. Но когда базовая архитектура ИИ непрозрачна, никакое последующее устранение неполадок не может прояснить и структурно улучшить то, как генерируются или манипулируются результаты. Именно так мы получаем случаи, когда Grok называет себя «фальшивым Илоном Маском», а Claude Opus 4 от Anthropic прибегает ко лжи и шантажу после случайного удаления кодовой базы компании. С момента появления этих заголовков комментаторы обвиняли инженерию промптов, политику контента и корпоративную культуру. И хотя все эти факторы играют роль, фундаментальный недостаток — архитектурный. Мы просим системы, никогда не предназначенные для проверки, вести себя так, как будто прозрачность является их естественной функцией. Если мы хотим, чтобы люди доверяли ИИ, сама инфраструктура должна предоставлять доказательства, а не заверения. В тот момент, когда прозрачность встраивается в базовый слой ИИ, доверие становится не ограничением, а стимулом. Этика ИИ не может быть второстепенной Что касается потребительских технологий, этические вопросы часто рассматриваются как соображения после запуска, которые нужно решать после масштабирования продукта. Этот подход напоминает строительство тридцатиэтажной офисной башни до найма инженера, чтобы подтвердить, что фундамент соответствует нормам. Вам может повезти на какое-то время, но скрытый риск тихо накапливается, пока что-то не сдастся. Сегодняшние централизованные инструменты ИИ ничем не отличаются. Когда модель одобряет мошенническую кредитную заявку или галлюцинирует медицинский диагноз, заинтересованные стороны потребуют и заслуживают аудиторского следа. Какие данные привели к этому ответу? Кто настроил модель и как? Какое ограждение не сработало? Большинство платформ сегодня могут только затуманивать и отклонять вину. Решения ИИ, на которые они полагаются, никогда не были предназначены для хранения таких записей, поэтому они не существуют и не могут быть созданы задним числом. Инфраструктура ИИ, которая доказывает себя Хорошая...

Заставьте ИИ доказать, что ему нечего скрывать

Мнение: Авинаш Лакшман, основатель и генеральный директор Weilliptic 

Современная технологическая культура любит сначала решать увлекательную часть — умную модель, привлекательные для публики функции — и рассматривать ответственность и этику как дополнения на будущее. Но когда базовая архитектура ИИ непрозрачна, никакое последующее устранение неполадок не может прояснить и структурно улучшить то, как генерируются или манипулируются результаты. 

Именно так мы получаем случаи, когда Grok называет себя "фальшивым Илоном Маском", а Claude Opus 4 от Anthropic прибегает к лжи и шантажу после случайного удаления кодовой базы компании. С момента появления этих заголовков комментаторы обвиняли инженерию промптов, политику контента и корпоративную культуру. И хотя все эти факторы играют свою роль, фундаментальный недостаток — архитектурный. 

Мы просим системы, никогда не предназначенные для проверки, вести себя так, как будто прозрачность является их естественной функцией. Если мы хотим, чтобы люди доверяли ИИ, сама инфраструктура должна предоставлять доказательства, а не заверения. 

В тот момент, когда прозрачность встраивается в базовый слой ИИ, доверие становится не ограничением, а стимулом. 

Этика ИИ не может быть второстепенной

Что касается потребительских технологий, этические вопросы часто рассматриваются как соображения после запуска, которые нужно решать после масштабирования продукта. Этот подход напоминает строительство тридцатиэтажной офисной башни до найма инженера, чтобы подтвердить, что фундамент соответствует нормам. Вам может повезти на какое-то время, но скрытый риск тихо накапливается, пока что-то не сдастся.

Сегодняшние централизованные инструменты ИИ ничем не отличаются. Когда модель одобряет мошенническую кредитную заявку или галлюцинирует медицинский диагноз, заинтересованные стороны потребуют и заслуживают аудиторского следа. Какие данные дали этот ответ? Кто настроил модель и как? Какое ограждение не сработало? 

Большинство платформ сегодня могут только затуманивать и отклонять вину. Решения ИИ, на которые они полагаются, никогда не были предназначены для хранения таких записей, поэтому они не существуют или не могут быть созданы задним числом.

Инфраструктура ИИ, которая доказывает себя

Хорошая новость в том, что инструменты для создания надежного и прозрачного ИИ существуют. Один из способов обеспечить доверие к системам ИИ — начать с детерминированной песочницы. 

Связанное: Шифропанк ИИ: Руководство по нецензурированному, непредвзятому, анонимному ИИ в 2025 году

Каждый ИИ-агент работает внутри WebAssembly, поэтому если вы предоставите те же входные данные завтра, вы получите те же выходные данные, что важно, когда регуляторы спрашивают, почему было принято решение. 

Каждый раз, когда песочница изменяется, новое состояние криптографически хэшируется и подписывается небольшим кворумом валидаторов. Эти подписи и хэш записываются в блокчейн-реестр, который ни одна сторона не может переписать. Таким образом, реестр становится неизменяемым журналом: любой с разрешением может воспроизвести цепочку и подтвердить, что каждый шаг произошел именно так, как записано.

Поскольку рабочая память агента хранится в том же реестре, она выживает при сбоях или миграциях в облако без обычной пристегиваемой базы данных. Артефакты обучения, такие как отпечатки данных, веса моделей и другие параметры, фиксируются аналогичным образом, поэтому точная родословная любой данной версии модели доказуема, а не анекдотична. Затем, когда агенту нужно вызвать внешнюю систему, такую как API платежей или служба медицинских записей, он проходит через политический движок, который прикрепляет криптографический ваучер к запросу. Учетные данные остаются заблокированными в хранилище, а сам ваучер регистрируется в цепочке вместе с политикой, которая его разрешила.

В рамках этой ориентированной на доказательства архитектуры блокчейн-реестр обеспечивает неизменность и независимую проверку, детерминированная песочница устраняет невоспроизводимое поведение, а политический движок ограничивает агента авторизованными действиями. Вместе они превращают этические требования, такие как прослеживаемость и соответствие политике, в проверяемые гарантии, которые помогают катализировать более быстрые и безопасные инновации.

Рассмотрим агента управления жизненным циклом данных, который делает снимок производственной базы данных, шифрует и архивирует его в цепочке, а затем обрабатывает запрос клиента на стирание данных месяцы спустя с этим контекстом под рукой. 

Каждый хэш снимка, место хранения и подтверждение стирания данных записываются в реестр в реальном времени. ИТ-команды и команды по соответствию могут проверить, что резервные копии были выполнены, данные оставались зашифрованными, и правильные удаления данных были завершены, изучив один доказуемый рабочий процесс вместо просеивания разрозненных, изолированных журналов или полагаясь на панели управления поставщиков. 

Это лишь один из бесчисленных примеров того, как автономная, ориентированная на доказательства инфраструктура ИИ может оптимизировать корпоративные процессы, защищая бизнес и его клиентов, одновременно открывая совершенно новые формы экономии затрат и создания ценности.

ИИ должен строиться на проверяемых доказательствах

Недавние громкие неудачи ИИ не раскрывают недостатки какой-либо отдельной модели. Вместо этого они являются непреднамеренным, но неизбежным результатом системы "черного ящика", в которой подотчетность никогда не была основным руководящим принципом. 

Система, которая несет свои доказательства, превращает разговор из "доверься мне" в "проверь сам". Этот сдвиг имеет значение для регуляторов, людей, которые используют ИИ лично и профессионально, и руководителей, чьи имена в конечном итоге оказываются в письме о соответствии.

Следующее поколение интеллектуального программного обеспечения будет принимать важные решения со скоростью машины. 

Если эти решения останутся непрозрачными, каждая новая модель станет свежим источником ответственности.

Если прозрачность и возможность аудита являются нативными, жестко закодированными свойствами, автономия и подотчетность ИИ могут сосуществовать без проблем, а не работать в напряжении. 

Мнение: Авинаш Лакшман, основатель и генеральный директор Weilliptic.

Эта статья предназначена для общих информационных целей и не должна рассматриваться как юридическая или инвестиционная консультация. Взгляды, мысли и мнения, выраженные здесь, принадлежат исключительно автору и не обязательно отражают или представляют взгляды и мнения Cointelegraph.

Источник: https://cointelegraph.com/news/make-ai-prove-itself?utm_source=rss_feed&utm_medium=feed&utm_campaign=rss_partner_inbound

Возможности рынка
Логотип null
null Курс (null)
--
----
USD
График цены null (null) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.