2. Що таке AI?
Штучний інтелект базується на ідеї, що машини можна запрограмувати для
моделювання та повторення людського інтелекту, наприклад здатності
розпізнавати шаблони, розуміти природну мову, міркувати, вчитися на
досвіді та приймати рішення на основі даних. Технології AI включають
машинне навчання, глибоке навчання, обробку природної мови, комп’
ютерне бачення, робототехніку та багато інших.
3. Яким буває AI?
1. Rule-Based AI (системи на основі правил): цей тип AI використовує правила та логіку, щоб
допомогти машинам робити рішення на основі певних умов. Ці системи використовують
"якщо-то" та "тоді-це" умови, щоб робити висновки та вирішувати проблеми.
2. Machine Learning AI (навчання машин): цей тип AI використовує алгоритми та моделі, щоб
навчити машину розпізнавати певні патерни та здібності. Ці системи використовують велику
кількість даних для навчання машини та поліпшення її результатів.
3. Neural Network AI (нейронні мережі): цей тип AI базується на послідовних з'єднаннях між
багатьма "нейронами" (компонентами, які допомагають машинам розпізнавати патерни та
здібності). Ці системи використовуються для багатьох задач, таких як розпізнавання мови та
зображень.
4. Natural Language Processing AI (обработка природньої мови): цей тип AI допомагає машинам
розуміти та взаємодіяти з людьми за допомогою природної мови. Ці системи
використовуються для розпізнавання мови та тексту, перекладу між мовами, та для
створення ботів та інших систем, які можуть взаємодіяти з людьми.
4. Rule-based AI
AI використовує
правила та логіку, щоб
допомогти машинам
робити рішення на
основі певних умов. Ці
системи
використовують "якщо-
то" та "тоді-це" умови,
щоб робити висновки
та вирішувати
проблеми.
5. Machine Learning AI
AI використовує алгоритми та
моделі, щоб навчити машину
розпізнавати певні патерни та
здібності. Ці системи
використовують велику кількість
даних для навчання машини та
поліпшення її результатів.
6. Neural Network AI
AI базується на послідовних
з'єднаннях між багатьма
"нейронами" (компонентами, які
допомагають машинам
розпізнавати патерни та здібності).
Ці системи використовуються для
багатьох задач, таких як
розпізнавання мови та зображень.
7. Базові типи нейронних мереж
1. Perceptron, FeedForward - для прогнозування або класифікації простих даних
2. Згорткові мережі, CNN - використовуються для багатьох задач обробки зображень, таких як
класифікація зображень, виявлення об'єктів, визначення контексту та багато іншого.
3. Рекурентні мережі, RNN - використовуються для багатьох завдань, пов'язаних з обробкою
мови, таких як розпізнавання мови, машинний переклад, генерація тексту, визначення
настрою та багато іншого. Вони також використовуються в обробці сигналів, аналізі даних
часових рядів, в області фінансів, медицини та інших областях.
4. LSTM або Long Short-Term Memory (довготривала пам'ять короткочасної пам'яті) - це
спеціальний тип рекурентної нейронної мережі (RNN), яка здатна зберігати довготривалі
залежності між послідовними даними, а також уникнути проблеми зниклих градієнтів, що
виникають при тренуванні класичної RNN.
5. LLM - це велика нейронна мережа, навчена на великій кількості текстових даних, зокрема з
Інтернету. Ці дані використовуються для тренування LLM, що дозволяє йому розуміти зв'язки
між словами, реченнями та контекстом тексту.
8. FeedForwardNN
DeepNN
використовуються для класифікації
даних, прогнозування часових
рядів, оцінки ризику та інших
фінансових завдань.
Глибокі нейронні мережі (Deep
Neural Networks) - це тип нейронних
мереж, що складається з багатьох
шарів нейронів, що дозволяє
моделювати більш складні
залежності в даних. Вони можуть
бути використані для
прогнозування цін на акції,
класифікації ризику та інших
фінансових завдань.
10. CNN
Основною причиною успіху CNN є їх
здатність автоматично виділяти
важливі ознаки зображень, які
можуть бути використані для
класифікації та виявлення об'єктів.
Це досягається за допомогою
згорткових та пулінгових шарів, які
можуть виявляти структурні
особливості зображення на різних
рівнях абстракції, починаючи від
простих ознак, таких як краї та
кольори, до більш складних форм
та структур.
11. RNN
Основна перевага RNN полягає в тому, що
вони можуть враховувати контекст та зв'язки
між різними елементами послідовності. Це
досягається за допомогою внутрішнього
стану, який зберігає інформацію про попередні
елементи послідовності та передає цю
інформацію до наступного елемента. Таким
чином, RNN можуть враховувати контекст при
обробці кожного елемента послідовності та
використовувати цю інформацію для
здійснення передбачень та класифікації.
Наприклад, у машинному перекладі, RNN може
враховувати контекст слова або фрази та
використовувати цю інформацію для кращого
перекладу. У визначенні настрою, RNN може
враховувати контекст попередніх речень та
використовувати цю інформацію для кращої
оцінки настрою.
12. LSTM
Основні переваги LSTM полягають у
тому, що вони можуть зберігати
інформацію про попередні стани в
багатьох шарах, а також вони
мають механізми, що дозволяють
уникнути проблеми зниклих
градієнтів. За допомогою LSTM
можна здійснювати передбачення
на основі складних послідовностей
даних з високою точністю, зокрема
в області машинного перекладу, де
вони дозволяють враховувати
граматичні правила мови та
контекст перекладу.
13. LLM
Large Language Models (LLM)
використовують комбінацію
Tokenizer та Transformer для
досягнення найкращих результатів
у завданнях обробки природньої
мови, таких як генерація тексту,
класифікація, переклад та інші.
Кожен токен вхідного тексту
пропускається через Transformer, і
модель збирає всю інформацію, що
потрібна для генерації відповіді.
LLM використовуються в багатьох
застосунках, таких як автоматичне
завершення тексту, генерація тексту
та розпізнавання мови. https://docs.google.com/spreadsheets/d/1O5KVQW1Hx5ZAkcg8AIRjbQLQzx2wVaLl0SqUu-ir9Fs/edit#gid=1158069878
14. Tokenizer
Tokenizer - це процес перетворення
тексту на послідовність токенів, які
можуть бути подані у вигляді
числового вектора та подані на вхід
моделі. Токенізація може залежати
від конкретної задачі та мови, але в
загальному, tokenizer дозволяє
моделі розуміти текст та
виконувати операції з ним.
16. Transformer
Transformer - це тип нейронної
мережі, який був розроблений
спеціально для роботи з
послідовними даними, такими як
текст. Модель Transformer
складається з багатьох шарів,
кожен з яких оброблює вхідні дані
та передає результати до
наступного шару. Крім того,
Transformer має механізми уваги,
які дозволяють моделі звертати
увагу на різні частини вхідного
тексту залежно від контексту.
17. Навчання LLM
1. Збір та підготовка даних: це перший і найбільш важливий етап. Щоб побудувати LLM, потрібна велика
кількість текстових даних. Дані потрібно очистити та підготувати, щоб зробити їх придатними для
навчання моделі.
2. Побудова моделі: після підготовки даних можна побудувати модель LLM. Зазвичай використовуються
глибокі нейронні мережі з архітектурою Transformer. Модель потрібно налаштувати та оптимізувати для
кращої продуктивності.
3. Навчання моделі: після побудови моделі потрібно навчити її. Навчання моделі включає в себе
тренування моделі на підготовлених даних. Під час навчання модель поступово вдосконалюється та
здатна краще розуміти текст.
4. Валідація та налаштування гіперпараметрів: для підтвердження ефективності моделі та забезпечення її
точності, потрібно перевірити її на нових даних, які не використовувались під час навчання. Також
потрібно налаштувати гіперпараметри моделі, щоб забезпечити її оптимальну продуктивність.
5. Інференція: після навчання модель готова для використання. Інференція - це процес використання
моделі для генерації нового тексту на основі вхідних даних.
18. ChatGPT-3.5
Загалом для навчання GPT-3.5
використовувалися значні ресурси,
зокрема великі кластери серверів з
багатошаровими графічними
процесорами (GPU) та технології
паралельного обчислення, такі як
TensorFlow та PyTorch. Було використано
різноманітні джерела даних, включаючи
інтернет-корпуси текстів, такі як Common
Crawl та Wikipedia, а також соціальні
мережі та форуми.
Загальна кількість даних, використаних
для навчання GPT-3.5, оцінюється у
десятки терабайтів. Навчання такої моделі
вимагає значних ресурсів, тому її
навчання зазвичай виконується на
потужних обчислювальних кластерах з
великою кількістю процесорів та GPU.
В технічному звіті GPT-4 не вказано розмір моделі, посилаючись на «конкурентне
середовище і наслідки для безпеки великомасштабних моделей». The Verge
цитував плітки, що ніби-то GPT-4 суттєво збільшить кількість параметрів з 175
мільярдів в GPT-3 до 100 трильйонів, які генеральний директор OpenAI Сем
Альтман назвав «повною маячнею»
(Generative Pre-trained Transformer )
19. Bert
сімейство мовних моделей, представлені в 2018 році
дослідниками Google на базі трансформерів, попередньо навчена
на великому масиві даних англійською мовою за допомогою
самоконтролю. Це означає, що вона була попередньо навчена
лише на необроблених текстах, без людей, які будь-яким чином
позначали їх (саме тому він може використовувати багато
загальнодоступних даних) з автоматичним процесом для
створення вхідних даних і міток із цих текстів. Точніше, це було
попередньо підготовлено з двома цілями:
Моделювання замаскованої мови (MLM): беручи речення, модель
випадковим чином маскує 15% слів у вхідних даних, потім
запускає все замасковане речення через модель і має
передбачити замасковані слова. Це відрізняється від
традиційних рекурентних нейронних мереж (RNN), які зазвичай
бачать слова одне за одним, або від авторегресійних моделей,
таких як GPT, які внутрішньо маскують майбутні токени. Це
дозволяє моделі вивчати двонаправлене представлення речення.
Прогноз наступного речення (NSP): моделі об’єднують два
замасковані речення як вхідні дані під час попереднього
навчання. Іноді вони відповідають реченням, які були поруч в
оригінальному тексті, іноді ні. Потім модель повинна
передбачити, чи слідували два речення одне за одним чи ні.
20. Bloom
це велика мовна модель на основі
трансформерів. Вона була створена понад
1000 дослідниками AI, щоб надати
безкоштовну велику мовну модель для всіх,
хто хоче спробувати. За період з березня по
липень 2022 року його було навчено
приблизно на 366 мільярдах токенів і
вважається альтернативою GPT-3 OpenAI із
його 176 мільярдами параметрів. BLOOM
використовує архітектуру моделі
трансформера лише для декодера,
модифіковану з Megatron-LM GPT-2.
BLOOM навчався з використанням даних 46
природних мов і 13 мов програмування.
Загалом 1,6 терабайт попередньо обробленого
тексту було перетворено на 350 мільярдів
унікальних токенів як навчальні набори даних
BLOOM.
21. Як використати ChatGPT?
1. Відповіді на запитання: ChatGPT може відповісти на запитання з різних областей
знань, від історії до науки.
2. Генерація тексту: він може генерувати тексти на певну тему або по заданому тексту.
3. Зрозуміти та сформулювати запитання: ChatGPT може розуміти запитання, які до
нього звертаються, та сформулювати зрозумілу відповідь.
4. Складання тексту: він може допомогти у складанні текстів на різні теми, які можуть
використовуватися для різних цілей.
5. Переклад: ChatGPT може перекладати тексти з однієї мови на іншу.
6. Допомога в навчанні: він може допомогти учням та студентам у навчанні, надаючи
різноманітну інформацію та роз'яснення на певну тему.
7. Розважання: ChatGPT може допомогти відповісти на різні запитання та розважати
користувачів, використовуючи гумор та інші елементи.
8. Консультування: він може надати користувачам консультації з різних питань, від
здоров'я до бізнесу.
22. Як бізнес може використати LLM?
1. Класифікація та аналіз текстів: LLM може бути використаний для аналізу великих обсягів текстової
інформації, такої як соціальні медіа, відгуки клієнтів та інше. Наприклад, LLM може бути використаний
для автоматичної класифікації відгуків клієнтів за певними категоріями або для аналізу настрою
відгуків.
2. Генерація контенту: LLM може бути використаний для генерації тексту для різних потреб, включаючи
написання статей, бізнес-звітів, описів продуктів та послуг, автоматичне створення оголошень та інше.
3. Віртуальні асистенти та чат-боти: LLM може бути використаний для створення віртуальних асистентів
та чат-ботів, які можуть відповідати на запитання та допомагати клієнтам з різними завданнями.
4. Автоматичний переклад: LLM може бути використаний для автоматичного перекладу між різними
мовами, що може бути корисним для міжнародних компаній та бізнесів, які мають клієнтів або
партнерів з різних країн.
5. Автоматизація рутинних завдань: LLM може бути використаний для автоматизації рутинних завдань,
таких як обробка замовлень, відповідь на запитання клієнтів та інше. Це може допомогти збільшити
продуктивність та ефективність роботи співробітників компанії.
23. ще…
1. Пошук та аналіз інформації: LLM може бути використаний для пошуку та аналізу інформації
2. Розумні рекомендації: LLM може бути використаний для створення персоналізованих
рекомендацій для клієнтів. Наприклад, на основі аналізу поведінки клієнтів на сайті або
інших даних, LLM може зробити рекомендації щодо товарів, послуг або інформації, яка може
бути цікава клієнту.
3. Аналіз текстових документів: LLM може бути використаний для аналізу текстових документів,
таких як контракти, звіти, документи з підтримки клієнтів та інші. За допомогою LLM можна
швидко та ефективно знайти ключові слова, теми, виявити проблеми та ризики.
4. Оптимізація реклами: LLM може бути використаний для підвищення ефективності реклами.
На основі аналізу даних про поведінку користувачів та відгуків на рекламу, LLM може
допомогти виявити найбільш ефективні способи реклами та підвищити конверсію.
5. Моніторинг та прогнозування трендів: LLM може бути використаний для моніторингу та
прогнозування трендів на ринку. За допомогою аналізу даних з соціальних мереж, новин та
інших джерел, LLM може допомогти компанії зрозуміти тенденції та зробити правильні
рішення щодо розвитку бізнесу.