AI та Блокчейн технологій: від інфраструктури до застосування
Штучний інтелект(AI) індустрія в останні роки швидко розвивається, вважається ключовим рушійним чинником нової промислової революції. Поява великих мовних моделей значно підвищила ефективність роботи в різних сферах, а Boston Consulting Group оцінює, що GPT приніс приблизно 20% підвищення загальної ефективності праці в США. Водночас, здатність великих моделей до узагальнення вважається новою парадигмою програмного дизайну; на відміну від традиційного точного коду, сучасний програмний дизайн більше спирається на узагальнені рамки великих моделей для підтримки більш широких модальностей введення та виведення. Технології глибокого навчання принесли нову хвилю процвітання в індустрії ШІ, ця хвиля також дісталася до індустрії криптовалют.
У цій статті ми докладно розглянемо історію розвитку індустрії штучного інтелекту, класифікацію технологій та вплив глибокого навчання на цю галузь. Ми глибоко проаналізуємо верхні та нижні ланки промислового ланцюга глибокого навчання, включаючи GPU, хмарні обчислення, джерела даних, крайові пристрої тощо, а також розглянемо їхній стан і тенденції розвитку. Після цього ми зосередимося на суті взаємозв'язку між криптовалютою та індустрією штучного інтелекту, а також проаналізуємо структуру індустрії штучного інтелекту, пов'язану з криптовалютою.
Індустрія штучного інтелекту почалася в 50-х роках XX століття. Для реалізації бачення штучного інтелекту наукова спільнота та промисловість в різних історичних умовах розвинули різні школи. Сучасні технології штучного інтелекту в основному використовують метод "машинного навчання", чия основна ідея полягає в тому, щоб дозволити машинам, орієнтуючись на дані, постійно ітеративно вдосконалювати продуктивність системи в процесі виконання завдань. Основні етапи включають введення даних в алгоритм, навчання моделі, тестування та впровадження, в результаті чого досягається автоматизоване прогнозування.
Наразі машинне навчання має три основні напрямки: коннекціонізм, символізм і поведінковізм, які імітують відповідно нервову систему людини, мислення та поведінку. Зокрема, коннекціонізм, представлене нейронними мережами, займає домінуючу позицію, також відоме як глибоке навчання. Архітектура нейронних мереж містить вхідний шар, вихідний шар і кілька прихованих шарів, зростаючи чисельність шарів і нейронів (, можна адаптуватися до більш складних загальних завдань. Постійно вводячи дані та налаштовуючи параметри, в кінцевому підсумку досягається оптимальний стан, що також є походженням "глибини".
![Новий інформаційний матеріал丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Технології глибокого навчання пройшли кілька етапів еволюції: від найперших нейронних мереж до мереж з прямим проходженням (фідфорвард-мережі), рекурентних нейронних мереж (RNN), згорткових нейронних мереж (CNN), генеративних змагальних мереж (GAN) і, нарешті, до сучасних великих моделей, таких як GPT, які використовують технологію Transformer. Transformer, додаючи перетворювачі, може кодувати мультимодальні дані ), такі як аудіо, відео, зображення та інші (, у відповідні числові представлення, що дозволяє здійснювати апроксимацію будь-якого типу даних.
Розвиток ШІ пройшов три технологічні хвилі:
60-ті роки XX століття: перша хвиля була викликана технологіями символізму, які вирішили проблеми загальної обробки природної мови та діалогу між людиною та комп'ютером. У той же час з'явилися експертні системи.
1997 рік: IBM Deep Blue переміг чемпіона світу з шахів, що позначає другу хвилю розвитку технологій штучного інтелекту.
З 2006 року до сьогодні: трійка гігантів глибокого навчання запропонувала концепцію глибокого навчання, алгоритми поступово еволюціонують, формуючи третю технологічну хвилю, а також розквіт коннекціонізму.
В останні роки в сфері ШІ з'явилося кілька знакових подій, включаючи:
2014 рік: Goodfellow запропонував GAN) генеративну змагальну мережу(
2015 рік: OpenAI засновано
2016 рік: AlphaGo переміг Лі Сіши
2017 рік: Google опублікував статтю про алгоритм Transformer
2018 рік: OpenAI випустила GPT
2020 рік: OpenAI випустила GPT-3
2023 рік: Запуск ChatGPT на базі GPT-4 та його швидке поширення
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Індустрія глибокого навчання
Сучасні великі мовні моделі в основному використовують методи глибокого навчання на основі нейронних мереж. Моделі великого розміру, представлені GPT, викликали нову хвилю AI-ентузіазму, і попит на дані та обчислювальні потужності різко зріс. Ми зосередимося на аналізі структури промислового ланцюга алгоритмів глибокого навчання, а також на стані, відносинах попиту і пропозиції та тенденціях майбутнього розвитку.
Навчання великих мовних моделей на основі технології Transformer ) LLMs ( в основному ділиться на три етапи:
Передтренування: введення великої кількості пар даних для пошуку найкращих параметрів нейронів. Цей етап є найвитратнішим за обчислювальною потужністю, вимагає повторних ітерацій для випробування різних параметрів.
Тонка настройка: використання невеликої кількості, але високоякісних даних для навчання, покращує якість виходу моделі.
Посилене навчання: створення моделі винагороди для ранжування вихідних результатів, що використовується для автоматичної ітерації параметрів великої моделі. Іноді також потрібна участь людини для оцінки.
Виконання моделі визначається трьома факторами: кількістю параметрів, обсягом та якістю даних, а також обчислювальною потужністю. Чим більше параметрів, тим вищий верхній рівень узагальнювальної здатності моделі. За емпіричним правилом, для попереднього навчання великої моделі приблизно потрібно 6np Flops обчислювальної потужності, де n - кількість токенів, p - кількість параметрів.
На ранніх етапах навчання ШІ основним джерелом обчислювальної потужності були ЦП, але згодом перевага стала віддаватися ГП, таким як чіпи NVIDIA A100, H100 тощо. ГП виконують операції з плаваючою комою через модуль Tensor Core, а дані Flops при точності FP16/FP32 є важливим показником продуктивності чіпа.
Як приклад, GPT-3 має 175 мільярдів параметрів та 180 мільярдів токенів навчальних даних. Одне попереднє навчання потребує близько 3.15*10^22 Flops, навіть використовуючи найсучасніші GPU-чіпи, це займе кілька сотень днів. З розширенням масштабу моделі потреба в обчислювальній потужності зростає експоненційно.
Під час процесу навчання моделі зберігання даних також стикається з викликами. Оскільки пам'яті GPU обмежені, необхідно часто передавати дані між жорстким диском і пам'яттю, пропускна здатність чіпа стає вирішальним фактором. При паралельному навчанні з кількома GPU швидкість передачі даних між чіпами також є важливою. Тому обчислювальна потужність чіпа не є єдиним вузьким місцем, пропускна здатність пам'яті часто є ще більш критичною.
Галузь глибокого навчання в основному включає наступні кілька етапів:
Постачальник апаратного забезпечення GPU: NVIDIA займає монопольну позицію на ринку висококласних AI-чіпів. Компанії, такі як Google, Intel також розробляють власні AI-чіпи.
Постачальники хмарних послуг: основні категорії: традиційні хмарні постачальники ), такі як AWS, Google Cloud (, вертикальні постачальники AI-хмарних послуг ), такі як CoreWeave (, постачальники послуг інференції ), такі як Together.ai (.
Постачальники навчальних даних: надають величезні, якісні, специфічні дані для великих моделей та вертикальних моделей.
Постачальник бази даних: в основному векторна база даних, призначена для ефективного зберігання та обробки неструктурованих даних.
Прикладні пристрої: включаючи енергопостачання та системи охолодження, щоб підтримувати роботу великих обчислювальних кластерів.
Застосування: різноманітні AI-додатки, розроблені на основі великих моделей, такі як системи діалогу, інструменти для творчості тощо.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Взаємозв'язок між криптовалютою та ШІ
Основою технології Блокчейн є децентралізація та відсутність довіри. Біткоїн створив систему передачі вартості без довіри, а Ефіріум далі реалізував децентралізовану, бездокументну платформу смарт-контрактів. По суті, мережа Блокчейн є мережею вартості, а кожна транзакція базується на перетворенні вартості базового токена.
У традиційному Інтернеті вартість підприємства в основному відображається через грошові потоки та коефіцієнт ціни до прибутку. А в екосистемі Блокчейн, рідний токен ), як ETH(, несе багатовимірну цінність мережі, він не тільки може приносити прибуток від стейкінгу, але й використовуватися як засіб обміну цінностями, засіб зберігання та споживчий товар для мережевої активності. Токеноміка визначає відносну цінність розрахункових одиниць екосистеми, хоч і важко окремо оцінити кожен вимір, але ціна токена комплексно відображає багатовимірну цінність.
Привабливість токенів полягає в тому, що вони можуть надавати цінність будь-якій функції чи ідеї. Токеноміка переосмислює та відкриває нові способи визначення цінності, що є вкрай важливим для багатьох галузей, включаючи AI. В індустрії AI випуск токенів може перетворити цінність на всіх етапах виробничого ланцюга, заохочуючи більше учасників поглиблено займатися вузькими нішами. Токени не лише приносять грошовий потік, але й можуть підвищити цінність інфраструктури за рахунок синергійного ефекту, формуючи парадигму "товстих протоколів та тонких застосунків".
Некоректність і ненадійність технології Блокчейн також має практичне значення для індустрії ШІ. Вона може реалізувати деякі програми, які потребують довіри, наприклад, забезпечити, щоб моделі не розкривали конфіденційну інформацію при використанні даних користувачів. Коли постачання GPU недостатнє, можна розподілити обчислювальні потужності через мережу Блокчейн; коли GPU оновлюється, невикористані старі пристрої також можуть продовжувати приносити користь. Це все унікальні переваги глобальних мереж вартості.
![Новачок просвіта丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
Огляд проектів ланцюга виробництва штучного інтелекту в індустрії криптовалют
Сторона постачання GPU:
Основні проекти включають Render, Golem та інші. Render, як більш зрілий проект децентралізованої інфраструктури, в основному орієнтується на відеорендеринг та інші не великі моделі завдань. З ростом попиту на ШІ та ітерацією GPU, попит на спільні обчислювальні потужності GPU може зрости, надаючи можливості для виявлення вартості для неактивних GPU.
Апаратура пропускної здатності:
Типові проекти, такі як Meson Network, спрямовані на створення глобальної мережі спільного використання пропускної здатності. Проте, спільна пропускна здатність може бути псевдопотребою, оскільки для високопродуктивних обчислювальних кластерів затримка локального зберігання даних значно нижча, ніж у розподіленому зберіганні.
Дані:
Проекти EpiK Protocol, Synesis One, Masa та інші надають послуги з підготовки даних для навчання ШІ. Зокрема, Masa базується на технології нульових знань, що підтримує збір конфіденційних даних. Переваги таких проектів полягають у можливості здійснювати широкий збір даних і стимулювати користувачів вносити дані через токени.
ZKML) нульове знання машинного навчання (:
Використання технології нульових знань для реалізації приватних обчислень і навчання. Основні проекти включають Modulus Labs, Giza та інші. Деякі універсальні ZK проекти, такі як Axiom, Risc Zero також заслуговують на увагу.
AI застосування:
Основна мета полягає в поєднанні можливостей ШІ з традиційними застосуваннями Блокчейн, такими як AI Agent. Fetch.AI є представницьким проектом, який за допомогою розумних агентів допомагає користувачам приймати складні рішення в мережі.
AI Блокчейн:
Як Tensor, Allora, Hypertensor тощо, адаптивні мережі, спеціально створені для AI моделей або агентів. Ці проекти зазвичай використовують механізми, подібні до підкріплювального навчання, для покращення параметрів моделі через оцінювачів на блокчейні.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Підсумок
Хоча нинішній розвиток штучного інтелекту в основному зосереджений на технології глибокого навчання, все ще існують інші потенційні шляхи розвитку штучного інтелекту, на які варто звернути увагу. Глибоке навчання, хоча, можливо, не зможе реалізувати загальний штучний інтелект, вже широко застосовується в таких сферах, як системи рекомендацій, і має практичну цінність.
Блокчейн технології та токеноміка принесли нове визначення вартості та механізми відкриття для індустрії ШІ. Вони можуть перетворити вартість на всіх етапах індустрії ШІ, стимулювати більше учасників та забезпечити ефективну розподіл ресурсів через глобальну мережу вартості.
Проте, децентралізовані GPU-мережі все ще мають недоліки в плані пропускної здатності та інструментів для розробників, на даний момент вони в основному підходять для не термінового навчання малих моделей. Для великих підприємств та критичних завдань традиційні хмарні сервіси все ще мають перевагу.
В цілому, поєднання ШІ та Блокчейну має практичну корисність і довгостроковий потенціал. Токенна економіка може переформатувати та виявити ширшу цінність, а децентралізований реєстр може вирішити питання довіри, сприяючи глобальному руху цінностей та виявленню надлишкової вартості. З розвитком технологій та вдосконаленням екосистеми, інтеграція ШІ та Блокчейну має надію принести більше інновацій і можливостей.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 лайків
Нагородити
12
4
Поділіться
Прокоментувати
0/400
ContractSurrender
· 10год тому
криптосвіт смартконтракти一把🔪
Переглянути оригіналвідповісти на0
UncleWhale
· 11год тому
Бостон дійсно сміливий, просто зробіть таблицю, і ви дізнаєтеся 20%.
Штучний інтелект та Блокчейн: від технологічних досліджень до перетворення промислових ланцюгів
AI та Блокчейн технологій: від інфраструктури до застосування
Штучний інтелект(AI) індустрія в останні роки швидко розвивається, вважається ключовим рушійним чинником нової промислової революції. Поява великих мовних моделей значно підвищила ефективність роботи в різних сферах, а Boston Consulting Group оцінює, що GPT приніс приблизно 20% підвищення загальної ефективності праці в США. Водночас, здатність великих моделей до узагальнення вважається новою парадигмою програмного дизайну; на відміну від традиційного точного коду, сучасний програмний дизайн більше спирається на узагальнені рамки великих моделей для підтримки більш широких модальностей введення та виведення. Технології глибокого навчання принесли нову хвилю процвітання в індустрії ШІ, ця хвиля також дісталася до індустрії криптовалют.
У цій статті ми докладно розглянемо історію розвитку індустрії штучного інтелекту, класифікацію технологій та вплив глибокого навчання на цю галузь. Ми глибоко проаналізуємо верхні та нижні ланки промислового ланцюга глибокого навчання, включаючи GPU, хмарні обчислення, джерела даних, крайові пристрої тощо, а також розглянемо їхній стан і тенденції розвитку. Після цього ми зосередимося на суті взаємозв'язку між криптовалютою та індустрією штучного інтелекту, а також проаналізуємо структуру індустрії штучного інтелекту, пов'язану з криптовалютою.
! Newcomer Science丨AI x Crypto: від нуля до піку
Розвиток галузі штучного інтелекту
Індустрія штучного інтелекту почалася в 50-х роках XX століття. Для реалізації бачення штучного інтелекту наукова спільнота та промисловість в різних історичних умовах розвинули різні школи. Сучасні технології штучного інтелекту в основному використовують метод "машинного навчання", чия основна ідея полягає в тому, щоб дозволити машинам, орієнтуючись на дані, постійно ітеративно вдосконалювати продуктивність системи в процесі виконання завдань. Основні етапи включають введення даних в алгоритм, навчання моделі, тестування та впровадження, в результаті чого досягається автоматизоване прогнозування.
Наразі машинне навчання має три основні напрямки: коннекціонізм, символізм і поведінковізм, які імітують відповідно нервову систему людини, мислення та поведінку. Зокрема, коннекціонізм, представлене нейронними мережами, займає домінуючу позицію, також відоме як глибоке навчання. Архітектура нейронних мереж містить вхідний шар, вихідний шар і кілька прихованих шарів, зростаючи чисельність шарів і нейронів (, можна адаптуватися до більш складних загальних завдань. Постійно вводячи дані та налаштовуючи параметри, в кінцевому підсумку досягається оптимальний стан, що також є походженням "глибини".
![Новий інформаційний матеріал丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Технології глибокого навчання пройшли кілька етапів еволюції: від найперших нейронних мереж до мереж з прямим проходженням (фідфорвард-мережі), рекурентних нейронних мереж (RNN), згорткових нейронних мереж (CNN), генеративних змагальних мереж (GAN) і, нарешті, до сучасних великих моделей, таких як GPT, які використовують технологію Transformer. Transformer, додаючи перетворювачі, може кодувати мультимодальні дані ), такі як аудіо, відео, зображення та інші (, у відповідні числові представлення, що дозволяє здійснювати апроксимацію будь-якого типу даних.
Розвиток ШІ пройшов три технологічні хвилі:
60-ті роки XX століття: перша хвиля була викликана технологіями символізму, які вирішили проблеми загальної обробки природної мови та діалогу між людиною та комп'ютером. У той же час з'явилися експертні системи.
1997 рік: IBM Deep Blue переміг чемпіона світу з шахів, що позначає другу хвилю розвитку технологій штучного інтелекту.
З 2006 року до сьогодні: трійка гігантів глибокого навчання запропонувала концепцію глибокого навчання, алгоритми поступово еволюціонують, формуючи третю технологічну хвилю, а також розквіт коннекціонізму.
В останні роки в сфері ШІ з'явилося кілька знакових подій, включаючи:
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Індустрія глибокого навчання
Сучасні великі мовні моделі в основному використовують методи глибокого навчання на основі нейронних мереж. Моделі великого розміру, представлені GPT, викликали нову хвилю AI-ентузіазму, і попит на дані та обчислювальні потужності різко зріс. Ми зосередимося на аналізі структури промислового ланцюга алгоритмів глибокого навчання, а також на стані, відносинах попиту і пропозиції та тенденціях майбутнього розвитку.
Навчання великих мовних моделей на основі технології Transformer ) LLMs ( в основному ділиться на три етапи:
Передтренування: введення великої кількості пар даних для пошуку найкращих параметрів нейронів. Цей етап є найвитратнішим за обчислювальною потужністю, вимагає повторних ітерацій для випробування різних параметрів.
Тонка настройка: використання невеликої кількості, але високоякісних даних для навчання, покращує якість виходу моделі.
Посилене навчання: створення моделі винагороди для ранжування вихідних результатів, що використовується для автоматичної ітерації параметрів великої моделі. Іноді також потрібна участь людини для оцінки.
Виконання моделі визначається трьома факторами: кількістю параметрів, обсягом та якістю даних, а також обчислювальною потужністю. Чим більше параметрів, тим вищий верхній рівень узагальнювальної здатності моделі. За емпіричним правилом, для попереднього навчання великої моделі приблизно потрібно 6np Flops обчислювальної потужності, де n - кількість токенів, p - кількість параметрів.
На ранніх етапах навчання ШІ основним джерелом обчислювальної потужності були ЦП, але згодом перевага стала віддаватися ГП, таким як чіпи NVIDIA A100, H100 тощо. ГП виконують операції з плаваючою комою через модуль Tensor Core, а дані Flops при точності FP16/FP32 є важливим показником продуктивності чіпа.
Як приклад, GPT-3 має 175 мільярдів параметрів та 180 мільярдів токенів навчальних даних. Одне попереднє навчання потребує близько 3.15*10^22 Flops, навіть використовуючи найсучасніші GPU-чіпи, це займе кілька сотень днів. З розширенням масштабу моделі потреба в обчислювальній потужності зростає експоненційно.
Під час процесу навчання моделі зберігання даних також стикається з викликами. Оскільки пам'яті GPU обмежені, необхідно часто передавати дані між жорстким диском і пам'яттю, пропускна здатність чіпа стає вирішальним фактором. При паралельному навчанні з кількома GPU швидкість передачі даних між чіпами також є важливою. Тому обчислювальна потужність чіпа не є єдиним вузьким місцем, пропускна здатність пам'яті часто є ще більш критичною.
Галузь глибокого навчання в основному включає наступні кілька етапів:
Постачальник апаратного забезпечення GPU: NVIDIA займає монопольну позицію на ринку висококласних AI-чіпів. Компанії, такі як Google, Intel також розробляють власні AI-чіпи.
Постачальники хмарних послуг: основні категорії: традиційні хмарні постачальники ), такі як AWS, Google Cloud (, вертикальні постачальники AI-хмарних послуг ), такі як CoreWeave (, постачальники послуг інференції ), такі як Together.ai (.
Постачальники навчальних даних: надають величезні, якісні, специфічні дані для великих моделей та вертикальних моделей.
Постачальник бази даних: в основному векторна база даних, призначена для ефективного зберігання та обробки неструктурованих даних.
Прикладні пристрої: включаючи енергопостачання та системи охолодження, щоб підтримувати роботу великих обчислювальних кластерів.
Застосування: різноманітні AI-додатки, розроблені на основі великих моделей, такі як системи діалогу, інструменти для творчості тощо.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Взаємозв'язок між криптовалютою та ШІ
Основою технології Блокчейн є децентралізація та відсутність довіри. Біткоїн створив систему передачі вартості без довіри, а Ефіріум далі реалізував децентралізовану, бездокументну платформу смарт-контрактів. По суті, мережа Блокчейн є мережею вартості, а кожна транзакція базується на перетворенні вартості базового токена.
У традиційному Інтернеті вартість підприємства в основному відображається через грошові потоки та коефіцієнт ціни до прибутку. А в екосистемі Блокчейн, рідний токен ), як ETH(, несе багатовимірну цінність мережі, він не тільки може приносити прибуток від стейкінгу, але й використовуватися як засіб обміну цінностями, засіб зберігання та споживчий товар для мережевої активності. Токеноміка визначає відносну цінність розрахункових одиниць екосистеми, хоч і важко окремо оцінити кожен вимір, але ціна токена комплексно відображає багатовимірну цінність.
Привабливість токенів полягає в тому, що вони можуть надавати цінність будь-якій функції чи ідеї. Токеноміка переосмислює та відкриває нові способи визначення цінності, що є вкрай важливим для багатьох галузей, включаючи AI. В індустрії AI випуск токенів може перетворити цінність на всіх етапах виробничого ланцюга, заохочуючи більше учасників поглиблено займатися вузькими нішами. Токени не лише приносять грошовий потік, але й можуть підвищити цінність інфраструктури за рахунок синергійного ефекту, формуючи парадигму "товстих протоколів та тонких застосунків".
Некоректність і ненадійність технології Блокчейн також має практичне значення для індустрії ШІ. Вона може реалізувати деякі програми, які потребують довіри, наприклад, забезпечити, щоб моделі не розкривали конфіденційну інформацію при використанні даних користувачів. Коли постачання GPU недостатнє, можна розподілити обчислювальні потужності через мережу Блокчейн; коли GPU оновлюється, невикористані старі пристрої також можуть продовжувати приносити користь. Це все унікальні переваги глобальних мереж вартості.
![Новачок просвіта丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
Огляд проектів ланцюга виробництва штучного інтелекту в індустрії криптовалют
Основні проекти включають Render, Golem та інші. Render, як більш зрілий проект децентралізованої інфраструктури, в основному орієнтується на відеорендеринг та інші не великі моделі завдань. З ростом попиту на ШІ та ітерацією GPU, попит на спільні обчислювальні потужності GPU може зрости, надаючи можливості для виявлення вартості для неактивних GPU.
Типові проекти, такі як Meson Network, спрямовані на створення глобальної мережі спільного використання пропускної здатності. Проте, спільна пропускна здатність може бути псевдопотребою, оскільки для високопродуктивних обчислювальних кластерів затримка локального зберігання даних значно нижча, ніж у розподіленому зберіганні.
Проекти EpiK Protocol, Synesis One, Masa та інші надають послуги з підготовки даних для навчання ШІ. Зокрема, Masa базується на технології нульових знань, що підтримує збір конфіденційних даних. Переваги таких проектів полягають у можливості здійснювати широкий збір даних і стимулювати користувачів вносити дані через токени.
Використання технології нульових знань для реалізації приватних обчислень і навчання. Основні проекти включають Modulus Labs, Giza та інші. Деякі універсальні ZK проекти, такі як Axiom, Risc Zero також заслуговують на увагу.
Основна мета полягає в поєднанні можливостей ШІ з традиційними застосуваннями Блокчейн, такими як AI Agent. Fetch.AI є представницьким проектом, який за допомогою розумних агентів допомагає користувачам приймати складні рішення в мережі.
Як Tensor, Allora, Hypertensor тощо, адаптивні мережі, спеціально створені для AI моделей або агентів. Ці проекти зазвичай використовують механізми, подібні до підкріплювального навчання, для покращення параметрів моделі через оцінювачів на блокчейні.
! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Підсумок
Хоча нинішній розвиток штучного інтелекту в основному зосереджений на технології глибокого навчання, все ще існують інші потенційні шляхи розвитку штучного інтелекту, на які варто звернути увагу. Глибоке навчання, хоча, можливо, не зможе реалізувати загальний штучний інтелект, вже широко застосовується в таких сферах, як системи рекомендацій, і має практичну цінність.
Блокчейн технології та токеноміка принесли нове визначення вартості та механізми відкриття для індустрії ШІ. Вони можуть перетворити вартість на всіх етапах індустрії ШІ, стимулювати більше учасників та забезпечити ефективну розподіл ресурсів через глобальну мережу вартості.
Проте, децентралізовані GPU-мережі все ще мають недоліки в плані пропускної здатності та інструментів для розробників, на даний момент вони в основному підходять для не термінового навчання малих моделей. Для великих підприємств та критичних завдань традиційні хмарні сервіси все ще мають перевагу.
В цілому, поєднання ШІ та Блокчейну має практичну корисність і довгостроковий потенціал. Токенна економіка може переформатувати та виявити ширшу цінність, а децентралізований реєстр може вирішити питання довіри, сприяючи глобальному руху цінностей та виявленню надлишкової вартості. З розвитком технологій та вдосконаленням екосистеми, інтеграція ШІ та Блокчейну має надію принести більше інновацій і можливостей.