Об'єднання ШІ та Блокчейн: панорамний аналіз від інфраструктури до застосування

Поєднання ШІ та Блокчейн: панорама від інфраструктури до застосувань

Швидкий розвиток галузі штучного інтелекту в останній час деякі люди вважають початком четвертої промислової революції. Поява великих мовних моделей значно підвищила ефективність у різних сферах, за оцінками компанії Boston Consulting Group, GPT забезпечив близько 20% підвищення загальної продуктивності праці в США. Водночас, здатність великих моделей до узагальнення вважається новою парадигмою програмного дизайну. У минулому програмний дизайн полягав у точному коді, тоді як тепер програмний дизайн більше зосереджується на інтеграції потужних моделей з високими можливостями узагальнення у програмне забезпечення, що дозволяє йому демонструвати кращі результати та підтримувати більш широкий спектр вхідних та вихідних модальностей. Технології глибокого навчання дійсно принесли новий етап процвітання для галузі ШІ, і цей підйом поступово поширюється на галузь криптовалют.

! Newcomer Science丨AI x Crypto: від нуля до піку

Розвиток галузі штучного інтелекту

Індустрія штучного інтелекту почала розвиватися з 50-х років XX століття. Для досягнення бачення штучного інтелекту академічні кола та промисловість в різні епохи та з різних дисциплін розвинули безліч шкіл для реалізації штучного інтелекту.

Сучасні технології штучного інтелекту в основному використовують термін "машинне навчання", основна ідея якого полягає в тому, щоб дозволити машинам на основі даних повторно ітеративно покращувати ефективність системи в завданнях. Основні етапи включають введення даних в алгоритм, навчання моделі на цих даних, тестування та впровадження моделі, а потім використання моделі для виконання автоматизованих прогнозних завдань.

Наразі машинне навчання має три основні напрямки: коннекціонізм, символізм і поведінковий підхід, які імітують нервову систему, мислення та поведінку людини відповідно. Серед них коннекціонізм, представлене нейронними мережами, наразі домінує ( і також відоме як глибоке навчання ). Ця архітектура має один вхідний шар, один вихідний шар і кілька прихованих шарів. Коли кількість шарів і нейронів ( достатньо велика, можна моделювати складні загальні завдання. Постійно вводячи дані, коригуючи параметри нейронів, в результаті великої кількості тренувань на даних нейронна мережа може досягти оптимального стану. Це також є походженням терміна "глибокий" - достатня кількість шарів і нейронів.

! [Newcomer Science Popular丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(

Глибоке навчання на основі нейронних мереж також пройшло через кілька технічних ітерацій та еволюцій, починаючи з найперших нейронних мереж, до мереж прямого зв'язку, RNN, CNN, GAN, і, нарешті, розвиваючись до сучасних великих моделей, таких як GPT, що використовують технологію Transformer. Технологія Transformer є напрямком еволюції нейронних мереж, вона додає перетворювач ) Transformer (, який використовується для кодування даних з різних модальностей ), таких як аудіо, відео, зображення тощо ( в відповідні числові представлення. Потім ці закодовані дані вводяться в нейронну мережу, що дозволяє нейронній мережі підлаштовуватися під будь-який тип даних, таким чином реалізуючи можливості обробки мультимодальних даних.

![Новачок Просвіта丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(

Розвиток ШІ пройшов три технологічні хвилі. Перша хвиля відбулася в 60-х роках XX століття, це було через десять років після появи технології ШІ. Ця хвиля була викликана розвитком символістських технологій, які вирішували загальні проблеми обробки природної мови та діалогу між людиною і машиною. У той же час, були створені експертні системи, зокрема експертна система DENRAL, яка була розроблена за підтримки Національного управління з аеронавтики і дослідження космічного простору США в Стенфордському університеті, ця система має потужні знання з хімії і здатна генерувати відповіді, схожі на відповіді хімічного експерта, через висунення запитань.

Друга хвиля технологій штучного інтелекту відбулася в 1997 році, коли "Гаррі" від IBM переміг чемпіона світу з шахів Каспарова з рахунком 3.5:2.5. Ця перемога вважається віхою в розвитку штучного інтелекту.

Третя хвиля технологій штучного інтелекту почалася в 2006 році. Три велетні глибокого навчання Ян Лекун, Джеффрі Хінтон і Йошуа Бенджіо запропонували концепцію глибокого навчання, яка є алгоритмом, що використовує штучні нейронні мережі як архітектуру для навчання представлення даних. Після цього алгоритми глибокого навчання постійно еволюціонували, від RNN, GAN до Transformer і Stable Diffusion, ці алгоритми разом сформували третю технологічну хвилю, що також знаменує розквіт коннекціонізму.

! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(

Індустрія глибокого навчання

Сьогодні великі мовні моделі в основному використовують методи глибокого навчання на основі нейронних мереж. Моделі великого масштабу, представлені GPT, викликали нову хвилю буму штучного інтелекту, і до цього сегменту ринку приєднується безліч гравців. Ми виявили, що попит на дані та обчислювальну потужність різко зріс, тому в цій частині звіту ми в основному розглядаємо промисловий ланцюг алгоритмів глибокого навчання, аналізуємо, як складаються його верхні та нижні ланки в індустрії штучного інтелекту, що керується алгоритмами глибокого навчання, а також сучасний стан, співвідношення попиту та пропозиції та майбутні тенденції розвитку.

Тренування великих мовних моделей, таких як GPT, на базі технології Transformer ) LLMs (, в основному поділяється на три етапи:

  1. Попереднє навчання: шляхом надання великої кількості пар даних на вхідному шарі для пошуку оптимальних параметрів кожного нейрона в моделі. Цей процес вимагає величезних обсягів даних і є найвитратнішим за обчислювальною потужністю етапом.

  2. Тонка налаштування: використання меншої кількості, але високоякісних даних для навчання з метою підвищення якості виходу моделі.

  3. Посилене навчання: створення "моделі винагороди" для оцінки якості виходу великої моделі, щоб ітеративно покращувати параметри великої моделі.

![Новачки в науці丨AI x Crypto: від нуля до вершин])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(

У процесі навчання великої моделі, чим більше кількість параметрів, тим вищий верхній межа її здатності до узагальнення. Отже, три основні фактори, які впливають на продуктивність великої моделі, це: кількість параметрів, обсяг і якість даних, обчислювальна потужність. Ці три елементи спільно визначають якість результатів великої моделі та її здатність до узагальнення.

Основні етапи в ланцюгу виробництва включають:

  1. Постачальники апаратного забезпечення GPU: наразі Nvidia займає абсолютну лідируючу позицію на ринку AI-чіпів. Академічні кола в основному використовують споживчі GPU ), такі як серія RTX (, тоді як промисловість в основному використовує чіпи H100, A100 та інші для комерційного впровадження великих моделей.

  2. Постачальники хмарних послуг: забезпечують еластичні обчислювальні потужності та рішення для навчання під управлінням для AI-компаній з обмеженим фінансуванням. Основні категорії: традиційні великі хмарні постачальники ), такі як AWS, Google Cloud, Azure (, професійні платформи хмарних обчислень у вертикальних нішах ), такі як CoreWeave, Lambda (, а також нові постачальники послуг інференції ), такі як Together.ai, Fireworks.ai (.

  3. Постачальники даних для навчання: надають моделі велику кількість, високу якість або специфічні дані. Деякі компанії спеціалізуються на зборі та маркуванні даних.

  4. Провайдери баз даних: спеціалізовані рішення для зберігання та обробки даних AI на основі векторних баз даних. Основні гравці включають Chroma, Zilliz, Pinecone, Weaviate тощо.

  5. Периферійні пристрої: включають енергетичне постачання та охолоджувальні системи для підтримки роботи масштабних кластерів GPU. З ростом масштабів AI моделей, попит у цій галузі також швидко зростає.

  6. Розробка додатків: розробка різноманітних додатків у вертикальних сферах на основі великих моделей, таких як інтелектуальні помічники, інструменти для генерації контенту тощо. В даний час розробка додатків відстає від розвитку інфраструктури.

![Новачок просвіта丨AI x Crypto: від нуля до вершини])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(

Блокчейн та поєднання з AI

Поєднання технології Блокчейн та ШІ в основному проявляється в кількох аспектах:

  1. Перепозиціонування цінностей: токеноміка може переопределити цінність на всіх етапах ланцюга AI, стимулюючи більше учасників заглиблюватись у сегменти AI індустрії.

  2. Механізм довіри: Децентралізованість і незмінність Блокчейн можуть надати надійне середовище для обробки даних для AI-додатків, вирішуючи проблеми конфіденційності та безпеки даних.

  3. Спільне використання ресурсів: через Блокчейн-мережу можна реалізувати глобальне спільне використання бездіяльної потужності GPU, підвищуючи ефективність використання ресурсів.

  4. Дані ринок: Блокчейн може побудувати справедливий та прозорий торговий ринок для навчальних даних AI, стимулюючи фізичні та юридичні особи вносити високоякісні дані.

  5. Моделювання валідації: використовуючи криптографічні технології, такі як нульові знання, можна перевірити правильність результатів AI-інференції, захищаючи при цьому конфіденційність моделі.

У екосистемі, де поєднуються Crypto та AI, головним чином виникли такі категорії проєктів:

  1. Розподілена мережа обчислювальних потужностей GPU: такі як Render, Akash тощо, спрямовані на створення децентралізованого ринку обчислень GPU.

  2. Постачальники даних AI: такі як EpiK Protocol, Synesis One, Masa та інші, прагнуть створити децентралізований ринок навчальних даних AI.

  3. ZKML)Нульові знання машинного навчання(: поєднує технології нульових знань, щоб реалізувати навчання та інференцію AI з захистом конфіденційності.

  4. AI代理)Agent(: як Fetch.AI, створити мережу AI-агентів, які можуть автономно виконувати завдання.

  5. AI Блокчейн: такі як Tensor, Allora тощо, спеціально розроблені для розробки та розгортання AI моделей.

Хоча поєднання Crypto та AI все ще перебуває на ранній стадії та стикається з такими викликами, як продуктивність та конфіденційність, ця сфера демонструє величезний інноваційний потенціал. З розвитком технологій та вдосконаленням екосистеми, ми маємо підстави сподіватися, що глибока інтеграція AI та Блокчейн призведе до революційних змін в обох галузях.

! [Newcomer Science丨AI x Crypto: від нуля до піку])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Репост
  • Поділіться
Прокоментувати
0/400
PrivacyMaximalistvip
· 3год тому
Спекуляції знову почалися
Переглянути оригіналвідповісти на0
GetRichLeekvip
· 08-10 06:51
купувати просадку AI монета вхід,妥妥的 обдурювати людей, як лохів预定...别问我为啥知道!
Переглянути оригіналвідповісти на0
SchrodingerPrivateKeyvip
· 08-10 06:51
Я прокинувся, квантовий стан Шредінгера
Переглянути оригіналвідповісти на0
ShibaOnTheRunvip
· 08-10 06:50
Знову розігрівають цей старий жарт
Переглянути оригіналвідповісти на0
MoonRocketmanvip
· 08-10 06:48
RSI-індикатор вже на місці, AI та спільнота блокчейну об'єдналися для прориву рівня спротиву! Обчислювальна потужність - це паливо~
Переглянути оригіналвідповісти на0
OldLeekMastervip
· 08-10 06:25
Знову малюють млинці, коли ж можна буде їх з'їсти?
Переглянути оригіналвідповісти на0
CounterIndicatorvip
· 08-10 06:23
Знову зростання на 20%? Просто спекуляції...
Переглянути оригіналвідповісти на0
  • Закріпити