Штучний інтелект наблизився до "стелі". Ось чому
В принципі, нічого неочікуваного – я припускаю, що більшість професіоналів погодяться з цим. Але цікаво, що про це більше починають говорити у медіа. Для мене це одна з ознак, що ми наближаємося до "стелі" цієї технології в її поточній версії.
На Techcrunch вийшла новина про те, що за результатами дослідження Stanford’s Institute for Human-Centered Artificial Intelligence другий рік поспіль спостерігається падіння інвестицій у сфері ШІ. В статті наводяться аргументи експертів щодо цього питання. Є розуміння, що галузь стикається з проблемами сталого застосування ШІ до конкретних життєвих/бізнес задач та масштабування цього досвіду. І що інвестиції зараз вкладаються не так у розробку нових моделей ШІ (що є прямо дуже дорого), а радше у застосування.
У The Guardian під назвою "From boom to burst, the AI bubble is only heading in one direction" вийшла авторська колонка професора John Naughton з Open University (до речі, Open University -- це цікавий академічний феномен; загугліть, якщо не чули про нього). Там він говорить про п’ять етапів розвитку "бульбашки": displacement, boom, euphoria, profit-taking and panic. За його словами, ми знаходимося зараз на третьому етапі ейфорії (і з ним важко не погодитися). Наступний етап profit-taking характеризується тим, що інвестори, які першими почують наближення "великого луску", почнуть забирати свої гроші з цієї галузі (тобто продавати акції компаній та частки у стартапах). Після того почнеться паніка.
В принципі, все логічно, як на мене. Я підтримую тезу автора "But it will burst: nothing grows exponentially for ever". Попри те, що є популярна та нав’язлива думка про технологічну сингулярність, яка обумовлена саме нестримним експоненційним зростанням, я віддаю цьому сценарію дуже малий відсоток шансу в поточній реальності.
На виступах щодо ШІ я завжди говорю, що сучасна версія ШІ базується на трьох основах: алгоритми, дані та обчислювальні потужності. Здається, що скоро ми почнемо впиратися в енергетичні потреби для тренування все більших моделей ШІ, хоча може це й не буде так скоро. Куди швидше може з’явитися брак якісних даних для моделей ШІ. Вже складається враження, що найкрутіші мовні моделі типу GPT-4 натреновані майже на всьому інтернеті. І не виглядає, що є добрий, ефективний та масштабований шлях дістати ще більше якісних даних.
Нарешті, алгоритми. В основі великих мовних моделей лежать нейронні мережі, вигадані в середині 20-го століття та покращені окремими ідеями з 2010-х. Втім, у дослідників ШІ є питання: ми, люди, не вчимося так, як ці моделі. Ми не потребуємо перегляду одних і тих самих зразків даних тисячі разів, щоб чомусь навчитися. Це вказує на певні фундаментальні різниці між навчанням людей та сучасного ШІ. Звичайно, є групи дослідників, які намагаються це виправити, але мені здається, що їх рішення наразі не у мейнстримі.
Технологія ШІ (яка, нагадаю, родом з 1956 року) переживала мінімум дві "зими", які були наслідками великого лускання тогочасних бульбашок. Це ставалося в першу чергу тому, що відбувався відтік інвестиційних коштів, і зрештою вченим не було за що проводити свої дослідження. Але після того, як бульбашка луснула, завжди лишається щось, що лягає в основу наступної ітерації розвитку. Наприклад, після лускання бульбашки dot-com’ів в 1990-х, коли інвестували у створення вебсайтів, які не виправдали себе, в позитиві ми лишилися з широкосмуговим інтернетом, а точніше з інфраструктурою кабелів, зокрема між континентами. Компанії, які прокладали ці мережі, могли збанкрутіти, але мережі нікуди не зникли.
Коли (а не якщо) лусне поточна бульбашка ШІ, то ми також залишимося з корисними артефактами. Для мене майже очевидно, що в тій чи іншій формі ШІ з нами залишиться подібно до електроенергії, двигуна внутрішнього згорання чи інтернету. Першочергово ШІ вже показав себе якісно в багатьох вузьких сферах та задачах. Але наскільки він буде мати широкий вжиток, як ми щодня користуємося мобільним зв’язком, – не знаю.