Нейробіологія і штучний інтелект
«Майбутнє штучного інтелекту – у нейробіології», – так стверджує засновник Google DeepMind, доктор нейробіології Деміс Хассабис (Demis Hassabis) в статті, опублікованій в журналі Neuron. Хасабис запустив свою лондонську компанію DeepMind для створення технічного аналога людського інтелекту, а в 2014 році Google купив його компанію за більш ніж $500 млн. В минулому році AlphaGo, розроблена DeepMind програма, обіграла чемпіонів світу в логічну гру го. У співпраці з OpenAI, некомерційним дослідним інститутом ІІ, підтримуваним Илоном Маском, компанія також працює над створенням машин з більш розвиненими інтелектуальними можливостями.
Всі алгоритми штучного інтелекту компанії DeepMind засновані на концепціях, вперше виявлених у нашому власному мозку. Глибинне навчання і навчання з підкріпленням – два стовпи сучасного ШІ – є результатом вільного перекладення моделі роботи біологічних нейронних зв’язків людського мозку на мову формальної математики. Глибинне навчання насправді є лише новим назвою підходу до штучного інтелекту, який існує вже більше 70 років і відомому як нейронні мережі. Нейронні мережі були вперше запропоновані ще в 1944 році Уорреном Маккалоу (Warren McCullough) і Уолтером Питсом (Walter Pitts), двома дослідниками з Чиказького університету, які в 1952 році заснували, як його іноді називають, перший відділ когнітивної науки.
Нейронні мережі були основною областю досліджень як в області нейробіології, так і в області інформатики до 1969 року, проте потім інтерес до них зник. У 1980-х роках техніка почала відроджуватися, але знову впала в затемнення в першому десятилітті нового століття і повернулася майже відразу, у другому – в основному завдяки збільшеній обчислювальної потужності графічних чіпів.
Схема пристрою нейромережі
Особливість роботи нейронних мереж
Нейронні мережі – це засіб машинного навчання, при якому комп’ютер навчається виконувати певне завдання, аналізуючи приклади навчання. Як правило, ці приклади попередньо позначені вручну. Наприклад, в системі розпізнавання об’єктів можна було б зберегти тисячі позначених зображень автомобілів, будинків, чашок і т. д., і вона змогла б знаходити візуальні закономірності та особливості цих зображень, щоб надалі асоціювати їх з конкретними мітками. Простіше кажучи, так само відбувається навчання у дітей – наприклад, дитині показують різні предмети червоного кольору, щоб надалі він міг самостійно асоціювати цю «мітку» з усіма червоними об’єктами.
Однак для того, щоб розробити навіть віддалений технічний аналог зв’язків нашого мозку, потрібно створення складного механізму. Нейронні мережі складаються з тисяч або мільйонів простих, але щільно взаємопов’язаних вузлів обробки інформації, зазвичай організовані в шари. Різні типи мереж розрізняються в залежності від їх кількості шарів, кількості з’єднань між вузлами та кількості вузлів у кожному шарі. Більшість сучасних нейронних мереж організовані в шари вузлів, в яких дані переміщаються тільки в одному напрямку. Окремий вузол може бути підключений до декільком вузлам в нижележащем шарі, з якого він отримує дані, і до декільком вузлам в шарі над ним, якому він відправляє дані.
Приклад навчання мережі
Кожному зі своїх вхідних з’єднань вузол присвоює номер, відомий як «вага». Коли мережа активна, вузол отримує від них інший елемент даних, інше число і множить його на вже заданий вагу, а потім складає значення, отримані від усіх входів, разом, отримуючи одне число. Якщо число перевищує порогове значення, вузол «спрацьовує», що в сучасних нейронних мережах зазвичай означає відправку номери – суми зважених входів – за всіма його вихідним з’єднанням.
У режимі тренування на всі ваги і пороги нейронної мережі спочатку встановлюються випадкові значення. Дані навчання подаються на нижній рівень – шар введення – і проходять через наступні шари, збільшуються і складаються, поки не досягнуть вихідного рівня. Під час навчання ваги і пороги постійно коригуються до тих пір, поки дані навчання з однаковими мітками не отримають аналогічні результати.
Майбутнє вже тут
Вражаючі результати вдосконалення роботи нейронних мереж та поширення використання технології не обмежуються перемогою AlphaGo і лабораторними дослідженнями ІІ. Якщо словосполучення «самообучаемые машини» у вас все ще асоціюється з миром наукової фантастики і фільмами жахів про повстання роботів, то ласкаво просимо в майбутнє.
В останні роки найбільш ефективні системи штучного інтелекту – в таких областях, як автономне водіння, розпізнавання мови, комп’ютерне зір і автоматичний переклад – були розроблені завдяки нейронних мереж. Ми можемо самі цього не помічати, але самообучаемые нейронні мережі вже вкоренилися в нашому повсякденному житті. Так, наприклад, переклад, пропонований вам у стрічці Facebook, більше не виконується автоматично за допомогою пошуку кожного окремого слова у словнику. Тепер компанія запустила роботу нейронної мережі, яка переводить цілі речення, видаючи все більш грамотний зв’язний текст. Вже зараз точність перекладів у соцмережі підвищилася на 11%.
Модель нейрона, оброблена в додатку Prisma
Окрему хвилю інтересу до технології обивателів в Росії викликало появу додатки Prizma, яка перетворює звичайні фотографії в подібності відомих творів мистецтва. Неважливо, чи користувалися ви цим додатком або, навпаки, дивувалися з приводу зловживання ним користувачами соцмереж – варто відзначити креатив його творців. Особливість, здавалося б, чергового пересічного засоби обробки фото полягала саме в тому, що програма працювала на основі нейронних мереж, використовуючи закономірності різних стилів живопису для створення нових шедеврів».
Однак навіть найпростіші нейронні мережі займають багато пам’яті і споживають величезну кількість енергії, тому вони зазвичай працюють на серверах в хмарі, де отримують дані з настільних і мобільних пристроїв, а потім відправляють назад результати аналізу.
Стаття по темі
Відео: нейромережа виграла реп-батл
З метою вирішити цю проблему, в минулому році доцент кафедри електротехніки та інформатики Массачусетського технологічного інституту Вів’єн Се (Vivienne Sze) і її колеги представили новий енергоефективний комп’ютерний чіп, оптимізований для нейронних мереж, який міг би дозволити потужним систем штучного інтелекту працювати локально на мобільних пристроях.
Крім того, вони розробили аналітичний метод, який може визначити, скільки енергії споживає нейронна мережа при роботі на певному типі апаратного забезпечення. Потім вони використовували технологію для оцінки нових методів обходу нейронних мереж, щоб вони могли працювати більш ефективно на портативних пристроях.
Однак Хассабис стверджує, що цього недостатньо. Мета, яку ставлять перед собою зараз дослідники – створити універсальний ІІ з умінням мислити, міркувати і швидко і гнучко вчитися, штучний інтелект, здатний зрозуміти реальний світ і уявити собі кращий.
Щоб домогтися цього, необхідно більш уважно вивчити роботу людського розуму, оскільки він є єдиним доказом того, що така інтелектуальна система в принципі можлива.
Проблема навчання ІІ
Залежно від їх конкретних завдань, алгоритми машинного навчання настроюються за допомогою певних математичних структур. На мільйон прикладів штучні нейронні мережі навчаються тонко налаштовувати свої сполуки, поки не досягнуть ідеального стану, яке дозволяє їм виконувати завдання з максимально високою точністю.
Оскільки кожен алгоритм повністю адаптований до конкретної задачі, повторне навчання для нової задачі часто пере вже встановлені раніше з’єднання. Таким чином, коли ІЇ вивчає нову задачу, вона повністю перезаписує попередню.
Стаття по темі
Google випустила гру, в якій нейромережа вгадує малюнки користувачів
Дилема безперервного навчання – це лише одна проблема штучного інтелекту. Інші ще навіть не визначено точно, але, можливо, вони виявляться більш серйозними для створення гнучких, винахідливих умов, подібних нашим.
Наприклад, проблема втіленого пізнання – як пояснює Хассабис, це здатність створювати знання і абстрактні думки на основі самостійного сенсорного взаємодії зі світом. Це свого роду здоровий глузд, який є у людей, інтуїція, яку важко описати, але яка надзвичайно корисна для вирішення повсякденних проблем, з якими ми стикаємося.
Ще важче програмувати такі риси, як уява. Саме в цьому ШІ, обмежений однієї конкретної завданням, дійсно поганий, каже Хассабис. Уява та інновації засновані на моделях, які ми вже створили про нашому світі – і уявляємо нові сценарії з них. Це дуже потужні інструменти планування, але їх дослідження для ШІ все ще перебуває на початковій стадії.
Стаття по темі
Російські розробники запустили нейромережа, яка оцінює «крутість» фото
Вчені відзначають, що і при вирішенні проблем роботи нейронних мереж, вони звертаються до неврології і фізіології живих істот. Так, недавні відкриття показують, що гіпокамп – частина лімбічної системи головного мозку, яка відповідає за пам’ять, – «програє» наш досвід і спогади швидкої перемотки під час відпочинку і сну. Це дозволяє мозку «вчитися заново на успіхи і невдачі, вже відбулися в минулому», – говорить Хассабис.
Дослідники ІІ підхопили цю ідею і впровадили рудиментарну версію алгоритм – і в результаті отримали потужні, які навчаються на основі досвіду, нейронні мережі. Вони порівнюють поточні ситуації з попередніми подіями, що зберігаються в пам’яті, і роблять дії, які раніше приводили до успіху або нагороди.
Але краще ще попереду
Стаття по темі
Що потрібно знати про нейромережах
Поява інструментів візуалізації мозку та генетичної біоінженерії пропонує безпрецедентний погляд на те, як біологічні нейронні мережі організовуються і об’єднуються для вирішення проблем. Оскільки нейрофізіологи працюють над вирішенням «нейронного коду» – основними обчисленнями, які підтримують функцію мозку, у дослідників ШІ все більше розширюється набір інструментів для вивчення.
Варто відзначити, що не тільки ШІ є чому навчитися у нейробіологів – взаємні вигоди. Сучасна нейронаука, у всіх її потужних засобах візуалізації та оптико-генетики, почала розуміти, як нейронні мережі підтримують більш високий рівень інтелекту.
«Нейрофізіологи часто мають досить неясне подання про механізми, що лежать в основі концепцій, які вони вивчають», – говорить Хассабис. Оскільки дослідження ІІ ґрунтуються на суворої математики, вони можуть запропонувати способи прояснити ці невизначені концепції в реальних гіпотезах.
Звичайно, малоймовірно, що ШІ і мозок завжди будуть працювати за однією схемою. Але ми можемо сприймати ІЇ як прикладну обчислювальну нейробиологию, каже Хассабис. Порівняння алгоритмів ШІ з людським мозком «може дати розуміння деяких найглибших таємниць розуму».