Искусственный интеллект тихо изменяет каждую сферу современной жизни. От того, как мы ищем информацию в интернете, до того, как мы инвестируем, учимся и голосуем, модели ИИ теперь посредничают в некоторых из наших самых критических решений. Но за растущим удобством скрывается более глубокая, более срочная проблема: у общества нет видимости того, как работают эти модели, на чем они обучаются и кто получает от них выгоду.
Это дежавю.
Мы уже пережили это с социальными сетями, доверив небольшой группе компаний беспрецедентную власть над общественными дискуссиями. Это привело к алгоритмической непрозрачности, монетизированному возмущению и эрозии общей реальности. На этот раз под угрозой находятся не только наши ленты, но и наши системы принятия решений, юридические рамки и основные институты.
И мы входим в это с закрытыми глазами.
Централизованное будущее уже начинает формироваться
Сегодняшний ландшафт ИИ контролируется несколькими мощными лабораториями, работающими за закрытыми дверями. Эти компании обучают большие модели на огромных наборах данных, собранных из интернета, иногда без согласия, и выпускают их в продуктах, которые формируют миллиарды цифровых взаимодействий каждый день. Эти модели не подлежат проверке. Данные не подлежат аудиту. Результаты не подлежат ответственности.
Эта централизация является не только технической проблемой. Это политическая и экономическая проблема. Будущее когниции строится в черных ящиках, ограниченных юридическими брандмауэрами и оптимизированных для акционерной стоимости. Поскольку системы ИИ становятся все более автономными и внедряются в общество, мы рискуем превратить важную общественную инфраструктуру в управляемые частными интересами механизмы.
Вопрос не в том, преобразит ли ИИ общество; он уже преобразил. Настоящая проблема в том, есть ли у нас право голоса в том, как это преобразование происходит.
Дело за децентрализованным ИИ
Тем не менее, существует альтернативный путь — тот, который уже исследуется сообществами, исследователями и разработчиками по всему миру.
Вместо того чтобы усиливать закрытые экосистемы, это движение предлагает создавать ИИ-системы, которые изначально прозрачны, децентрализованы в управлении и подотчетны людям, которые их создают. Этот сдвиг требует больше, чем технических инноваций — он требует культурной переориентации вокруг собственности, признания и коллективной ответственности.
В такой модели данные не просто извлекаются и монетизируются без признания. Они вносятся, проверяются и управляются людьми, которые их генерируют. Участники могут зарабатывать признание или вознаграждения. Валидаторы становятся заинтересованными сторонами. А системы развиваются с общественным контролем, а не единоначально.
Хотя эти подходы все еще находятся на ранних стадиях разработки, они указывают на радикально другое будущее — будущее, в котором интеллект распределяется от равного к равному, а не сверху вниз.
Почему прозрачность не может подождать
Консолидация инфраструктуры ИИ происходит с головокружительной скоростью. Компании с триллионными капиталами соревнуются в создании вертикально интегрированных цепочек. Государства предлагают регулирования, но не успевают за изменениями. Тем временем доверие к ИИ ослабевает. Недавний отчет Edelman показал, что только 35% американцев доверяют компаниям ИИ, что является значительным снижением по сравнению с предыдущими годами.
Этот кризис доверия не удивителен. Как общество может доверять системам, которые они не понимают, не могут аудитировать и против которых у них нет средств правовой защиты?
Единственным устойчивым противоядием является прозрачность, не только в самих моделях, но и на каждом уровне: от того, как собираются данные, до того, как модели обучаются, и до того, кто получает прибыль от их использования. Поддерживая открытую инфраструктуру и создавая совместные рамки для атрибуции, мы можем начать перераспределять динамику власти.
Это не о том, чтобы тормозить инновации. Это о том, чтобы формировать их.
Как может выглядеть совместное владение
Построение прозрачной экономики ИИ требует переосмысления не только кодов. Это означает пересмотр стимулов, которые определяли технологическую индустрию на протяжении последних двух десятилетий.
Более демократическое будущее ИИ может включать публичные реестры, которые отслеживают, как вклад данных влияет на результаты, коллективное управление обновлениями моделей и решениями о развертывании, экономическое участие для участников, тренеров и валидаторов, а также федеративные системы обучения, которые отражают местные ценности и контексты.
Это отправные точки для будущего, в котором ИИ отвечает не только капиталу, но и сообществу.
Часы тикают
У нас все еще есть выбор в том, как это будет развиваться. Мы уже видели, что происходит, когда мы отказываемся от нашей цифровой агентности в пользу централизованных платформ. С ИИ последствия будут еще более далеко идущими и менее обратимыми.
Если мы хотим будущее, в котором интеллект является общим благом, а не частным активом, то мы должны начать строить системы, которые являются открытыми, подлежащими аудиту и справедливыми.
Все начинается с простого вопроса: кому в конечном итоге должна служить ИИ?
Рам Кумар является ключевым участником OpenLedger, нового экономического слоя для ИИ, где вкладчики данных, создатели моделей и разработчики приложений наконец получают признание и вознаграждение за создаваемую ими ценность. Имея обширный опыт работы с многомиллиардными корпоративными счетами, Рам успешно сотрудничал с глобальными гигантами, такими как Walmart, Sony, GSK и LA Times.
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Искусственный интеллект создается за закрытыми дверями, и это ошибка
Искусственный интеллект тихо изменяет каждую сферу современной жизни. От того, как мы ищем информацию в интернете, до того, как мы инвестируем, учимся и голосуем, модели ИИ теперь посредничают в некоторых из наших самых критических решений. Но за растущим удобством скрывается более глубокая, более срочная проблема: у общества нет видимости того, как работают эти модели, на чем они обучаются и кто получает от них выгоду.
Это дежавю.
Мы уже пережили это с социальными сетями, доверив небольшой группе компаний беспрецедентную власть над общественными дискуссиями. Это привело к алгоритмической непрозрачности, монетизированному возмущению и эрозии общей реальности. На этот раз под угрозой находятся не только наши ленты, но и наши системы принятия решений, юридические рамки и основные институты.
И мы входим в это с закрытыми глазами.
Централизованное будущее уже начинает формироваться
Сегодняшний ландшафт ИИ контролируется несколькими мощными лабораториями, работающими за закрытыми дверями. Эти компании обучают большие модели на огромных наборах данных, собранных из интернета, иногда без согласия, и выпускают их в продуктах, которые формируют миллиарды цифровых взаимодействий каждый день. Эти модели не подлежат проверке. Данные не подлежат аудиту. Результаты не подлежат ответственности.
Эта централизация является не только технической проблемой. Это политическая и экономическая проблема. Будущее когниции строится в черных ящиках, ограниченных юридическими брандмауэрами и оптимизированных для акционерной стоимости. Поскольку системы ИИ становятся все более автономными и внедряются в общество, мы рискуем превратить важную общественную инфраструктуру в управляемые частными интересами механизмы.
Вопрос не в том, преобразит ли ИИ общество; он уже преобразил. Настоящая проблема в том, есть ли у нас право голоса в том, как это преобразование происходит.
Дело за децентрализованным ИИ
Тем не менее, существует альтернативный путь — тот, который уже исследуется сообществами, исследователями и разработчиками по всему миру.
Вместо того чтобы усиливать закрытые экосистемы, это движение предлагает создавать ИИ-системы, которые изначально прозрачны, децентрализованы в управлении и подотчетны людям, которые их создают. Этот сдвиг требует больше, чем технических инноваций — он требует культурной переориентации вокруг собственности, признания и коллективной ответственности.
В такой модели данные не просто извлекаются и монетизируются без признания. Они вносятся, проверяются и управляются людьми, которые их генерируют. Участники могут зарабатывать признание или вознаграждения. Валидаторы становятся заинтересованными сторонами. А системы развиваются с общественным контролем, а не единоначально.
Хотя эти подходы все еще находятся на ранних стадиях разработки, они указывают на радикально другое будущее — будущее, в котором интеллект распределяется от равного к равному, а не сверху вниз.
Почему прозрачность не может подождать
Консолидация инфраструктуры ИИ происходит с головокружительной скоростью. Компании с триллионными капиталами соревнуются в создании вертикально интегрированных цепочек. Государства предлагают регулирования, но не успевают за изменениями. Тем временем доверие к ИИ ослабевает. Недавний отчет Edelman показал, что только 35% американцев доверяют компаниям ИИ, что является значительным снижением по сравнению с предыдущими годами.
Этот кризис доверия не удивителен. Как общество может доверять системам, которые они не понимают, не могут аудитировать и против которых у них нет средств правовой защиты?
Единственным устойчивым противоядием является прозрачность, не только в самих моделях, но и на каждом уровне: от того, как собираются данные, до того, как модели обучаются, и до того, кто получает прибыль от их использования. Поддерживая открытую инфраструктуру и создавая совместные рамки для атрибуции, мы можем начать перераспределять динамику власти.
Это не о том, чтобы тормозить инновации. Это о том, чтобы формировать их.
Как может выглядеть совместное владение
Построение прозрачной экономики ИИ требует переосмысления не только кодов. Это означает пересмотр стимулов, которые определяли технологическую индустрию на протяжении последних двух десятилетий.
Более демократическое будущее ИИ может включать публичные реестры, которые отслеживают, как вклад данных влияет на результаты, коллективное управление обновлениями моделей и решениями о развертывании, экономическое участие для участников, тренеров и валидаторов, а также федеративные системы обучения, которые отражают местные ценности и контексты.
Это отправные точки для будущего, в котором ИИ отвечает не только капиталу, но и сообществу.
Часы тикают
У нас все еще есть выбор в том, как это будет развиваться. Мы уже видели, что происходит, когда мы отказываемся от нашей цифровой агентности в пользу централизованных платформ. С ИИ последствия будут еще более далеко идущими и менее обратимыми.
Если мы хотим будущее, в котором интеллект является общим благом, а не частным активом, то мы должны начать строить системы, которые являются открытыми, подлежащими аудиту и справедливыми.
Все начинается с простого вопроса: кому в конечном итоге должна служить ИИ?
! Рам Кумар
Рам Кумар
Рам Кумар является ключевым участником OpenLedger, нового экономического слоя для ИИ, где вкладчики данных, создатели моделей и разработчики приложений наконец получают признание и вознаграждение за создаваемую ими ценность. Имея обширный опыт работы с многомиллиардными корпоративными счетами, Рам успешно сотрудничал с глобальными гигантами, такими как Walmart, Sony, GSK и LA Times.