8 міфів про штучний інтелект, в які вірять навіть програмісти

Міф 1. У ІІ є здібності до творчості

Что умеет искусственный интеллект: творческие способности отсутствуют
Запит: "Дві руки тримаються одна за одну". Зображення: Stable Diffusion Online

Дивлячись на створення нейромереж на кшталт Midjourney, Stable Diffusion або DALL·E 2, багато людей пророкують кінець професії художника. Адже те, що людина малюватиме годинами і днями, машина може створити за секунди. Чи означає це, що штучний інтелект перевершує живий мозок у креативності?

ІІ може непогано наслідувати творчість людей, але всі його твори так чи інакше схожі на те, що ми вже бачили чи чули. Нейросети переглядають тисячі та мільйони картинок, а потім створюють на їх основі щось подібне. Але це зовсім не те, що робота художника з референсом, адже ІІ банально не розуміє, що він копіює.

Найпомітніший приклад : нейромережі зазнають значних труднощів із промальовуванням рук. ІІ просто не може збагнути, скільки пальців має бути у людини.

Також нейромережі погано вміють малювати візерунки та патерни, літери (на картинках, де мають бути тексти, вставляють біліберду), будівлі та автомобілі, та й просто персонажів у позах, що відрізняються від поширених «сидить», «стоїть», «лежать». Вони не здатні розрізнити переднє і заднє тло об'єктів, не можуть працювати з перспективою і позбавлені почуття простору.

Ти лише машина. Лише імітація життя. Робот напише симфонію? Робот перетворить шматок полотна на шедевр мистецтва?

Детектив Дел Спунер
Фільм "Я, робот"

Сам ІІ свої слабкості заперечувати не має наміру. На питання, чому він не досяг успіху в зображенні пальців, ChatGPT відповідає:

«Штучний інтелект не вміє малювати руки, бо для цього йому потрібно розуміти анатомію людського тіла та основи малюнка. І хоча ІІ може бути навчений створювати зображення людей або тварин, він не здатний повною мірою передати багато нюансів та деталей, які можна помітити тільки при спостереженні за реальним об'єктом. Крім того, створення зображень за допомогою ІІ — це лише математичні розрахунки, а не процес творчості, який вимагає від людини інтуїції та емоційної складової».

Тож нейромережі художників не замінять. Інша річ, що вони можуть стати для останніх добрим джерелом натхнення. Адже згенеровані ІІ картинки можна використовувати як ескізи для власних, більш опрацьованих зображень.

Міф 2. ІІ завжди неупереджений і неупереджений

Возможности искусственного интеллекта не гарантируют непредвзятости его суждений
Запит: «Робот у суддівській перуці та з молотком виносить вирок у залі суду». Зображення: Stable Diffusion Online

Багато хто мріє, щоб настали часи, коли державами правитимуть нейромережі. Вважається, що машини, на відміну людей, приймають рішення, керуючись виключно логікою, а чи не емоціями і бажаннями. Уявіть непідкупні суди, які завжди виносять справедливі вироки, держави, які стосуються всіх своїх громадян однаково, уряди, які створюють лише розумні закони. Здорово ж.

Ось тільки на практиці виявляється, що ІІ цілком може бути упереджений. Адже нейромережі навчаються на даних, які їм надають люди, а людям властиво бути упередженими.

Наприклад, розробники нейромережі Beauty.AI намагалися створити машину, яка вибирала б наймиловидніших дівчат на конкурсах краси. У наборі фотографій, якими програму навчали розпізнавати стандарти жіночої привабливості, превалювали білі моделі. І в результаті ІІ вирішив , що темношкірі та азіатські дівчата красивими бути не можуть.

Команда Beauty.AI зрозуміла, що створила ІІ-расиста, і згорнула проект.

Ще один приклад — чат-бот Tay.ai від Microsoft, який мав навчатися підтримувати «невимушену та грайливу бесіду» з людьми в інтернеті.

Нейросети вистачило менше 24 годин перебування онлайн, щоб набратися від користувачів соцмереж поганих звичок. В результаті Tay.ai, прикидаючись звичайною 19-річною дівчиною, став ображати людей у коментарях, вихваляти нездорові політичні течії, ганьбити фемінізм і водночас розповідати , що фемінізм — це круто. Як то кажуть, з ким поведешся…

Як би не був гарний ІІ, він залежить від якості даних, що надаються йому, і правильності їх інтерпретації. А отже, завжди буде упереджений рівно настільки, наскільки упереджені люди, які його навчають.

Міф 3. ІІ завжди каже правду

Возможности искусственного интеллекта позволяют ему обманывать
Запит: «Футуристичний робот бреше співрозмовнику». Зображення: Stable Diffusion Online

Кому б не хотілося мати при собі робота помічника, який завжди підкаже правильне рішення і виконає всю важку розумову роботу? Просиш ІІ написати диплом або зібрати список джерел для статті – і машина відразу видає правильні дані. Це ж чудово!

Але, на жаль, реальні нейромережі далеко не завжди видають правильні відповіді. Спробуйте, наприклад, попросити ChatGPT допомогти вам у складанні плану для курсової, і ви дуже швидко виявите, що машина… вигадує посилання на неіснуючі джерела і вставляє неробочі URL-адреси, щоб її текст виглядав переконливіше.

Якщо запитати чат-бота, навіщо він намагається вас обдурити, той безневинно відповість, що, коли йшло його навчання, всі посилання були актуальними і він ні в чому не винний.

Ще у ChatGPT краще не вимагати статистичних даних — наприклад, на кілька питань про ВВП тих самих країн за один і той же рік він незворушно видавав абсолютно різні результати.

Не зваблюйтеся: нейромережі не мають інтелекту і тому не усвідомлюють своїх відповідей. Вони просто копіюють вам ті дані з оброблених раніше текстів, які здаються їм найбільш підходящими.

ІІ сам по собі схильний до помилок і збоїв у роботі, що призводить до неправильної інтерпретації ваших запитів і видачі невірних результатів. Крім того, зловмисні користувачі можуть «годувати» нейромережі інформацію, що не відповідає дійсності. У результаті ІІ буде запрограмовано, щоб приховувати чи спотворювати дані у своїх відповідях чи зовсім нести біліберду.

Міф 4. ІІ стане причиною безробіття

Возможности искусственного интеллекта не позволяют ему стать причиной безработицы
Запит: «ІІ став причиною безробіття, люди голодують, а робот, що отримав високу посаду, сміється з них». Зображення: Stable Diffusion Online

Успіхи у розвитку текстогенераторів на кшталт ChatGPT змушують декого побоюватися, що нейромережі відберуть робочі місця у мільйонів людей і стануть причиною колосального зростання безробіття.

Судіть самі: ChatGPT вміє не лише невимушено підтримувати розмову, а й писати новини, рерайтувати статті та навіть програмувати. З такими тенденціями і письменники, і розробники, і редактори з журналістами без засобів для існування виявляться.

Так думають люди, які або не працювали з нейромережею взагалі, або тільки ознайомилися з її можливостями і негайно захопилися. Або з жахом.

Якщо деякий час використовувати ІІ для генерації текстів, можна помітити, що машина не дуже прагне смислового наповнення своєї писанини. Натомість вона повторює одні й самі тези різними словами.

ChatGPT видає перли, з яких сміються реальні копірайтери. Наприклад, людям, які цікавляться народними інструментами, нейромережа радить «брати ложки і починати дудіти». Із програмуванням теж не все гладко. ІІ може бути корисним кодерам, але його можливості обмежуються написанням невеликих алгоритмів та підпрограм.

Код, створений ChatGPT, часто виходить неробочим чи переривається середині. Попросіть ІІ прокоментувати рядки його творіння, і він незворушно забезпечить їх текстом «тут є програмна логіка». Джуніора-розробника, який залишає такі описи в проекті, навряд чи погладили б по голові.

Дослідження Організації економічного співробітництва та розвитку показує , що у кращому (для ІІ) випадку повністю автоматизувати можна лише 10% робочих місць у США та 12% у Британії.

Нейросети здатні виконувати за людину нудні рутинні дії, наприклад, сортування пошти та переписування новин за жорстко заданим планом. Але аналітики ОЕСР дійшли висновку , що ІІ не зможе претендувати на робочі місця, що вимагають високого рівня освіти та складних навичок.

Загалом навряд чи ChatGPT відбере хліб у людини.

Міф 5. ІІ стане розумним

Возможности искусственного интеллекта не позволяют ему стать разумным
Запит: «Штучний інтелект набуває самосвідомості». Зображення: Stable Diffusion Online

Фізик Стівен Хокінг якось сказав , що штучний інтелект може повністю замінити людей. Такі відомі особистості, як Ілон Маск, Гордон Мур та Стів Возняк, теж згадували про небезпеку ІІ та необхідність призупинити експерименти з його розробки.

Спробуй зрозумій, що у комп'ютера, що мислить, буде в голові.

Багато футурологів і письменників передбачали , що розвиток повноцінного штучного інтелекту призведе до негативних наслідків для людини.

Але ключове слово тут – «повноцінного». Сам термін ІІ по відношенню до нейромереж на кшталт ChatGPT не цілком коректний, оскільки вони не мають інтелекту. Це лише алгоритми, складні набори команд і математичних моделей, і вони здатні відтворювати когнітивні функції людини.

Причина проста: ми ще не дуже добре знаємо, як працює наш мозок. А відтворення його в коді і зовсім нездійсненне завдання.

Існують поняття «слабкий» та «сильний» ІІ. Перший — це самі нейромережі для генерації тексту або сортування електронних листів. Вони можуть самостійно приймати рішення чи навчатися з урахуванням нових даних.

А сильний ІІ – це Skynet з Термінатора або AM з розповіді Еллісона. Комп'ютер, який не просто оперує інформацією, а тією чи іншою мірою розуміє її сенс. Такі ІІ існують лише у фантастичних творах, і взагалі, невідомо , чи можна створити електронний аналог людського мозку хоча б теоретично.

Міф 6. Скоро ІІ почне розвиватися самостійно і настане технологічна сингулярність

Что умеет искусственный интеллект: способность к саморазвитию отсутствует
Запит: "Технологічна сингулярність". Зображення: Stable Diffusion Online

Технологічна сингулярність – це гіпотетичний стан людської цивілізації, коли розвиток технологій стає настільки швидким, що людина не може його контролювати. Одним із авторів цієї концепції став британський математик Ірвінг Гуд.

Вчений припустив : якщо створити «інтелектуальний агент», що самонавчається, він буде вдосконалюватися з незбагненною швидкістю. ІІ почне створювати нові технології та модернізуватися, а людство, нездатне зрозуміти його, безнадійно відстане у розвитку.

Перша надрозумна машина – це останній винахід, який колись знадобиться людині. За умови, що вона є досить слухняною, щоб підказати нам, як тримати її під контролем.

Ірвінг Гуд
Математик

Але, як ми вже пояснили, на самовдосконалення здатний лише сильний ІІ, а як його створити, вчені зараз і близько не уявляють.

Слабкий штучний інтелект навчається на тій інформації, яку йому «годують» розробники. Для тренування нейромережі потрібні фахівці, які визначають відповідні дані для кожного нового циклу навчання, усувають помилки у тренувальних вибірках та оновлюють програмне забезпечення.

Нейросети не можуть розвиватися далі за ті можливості, які закладені в них їх кодом. Тож технологічна сингулярність відкладається.

Міф 7. ІІ збунтується проти творців

Возможности искусственного интеллекта не позволят ему взбунтоваться против создателей
Запит: «Робот з ІІ зненавидів своїх творців і вирішує знищити їх». Зображення: Stable Diffusion Online

Той, хто володіє досить розвиненою свідомістю ІІ в теорії, може вважати людей загрозою. І просто про всяк випадок позбутися їх, розв'язавши ядерну війну або заразивши населення планети смертоносним вірусом. Мало, раптом ці безволосі мавпи висмикнуть вилку з розетки.

Це найпопулярніший сюжет у науковій фантастиці. Одним із перших його використав у 1967 році американський письменник Харлан Еллісон у своєму оповіданні «У мене немає рота, але я маю кричати». У ньому всемогутній комп'ютер АМ зненавидів своїх творців, винищив людство і залишив лише п'ятьох людей на планеті, щоб знущатися з них просто знічев'я.

Слава роботам. Смерть для людей.

Насправді бунт ІІ неможливий. Програмні алгоритми не усвідомлюють себе, не мають вільної волі та емоційних реакцій. Вони не можуть відчувати негативних почуттів до своїх творців чи бажання поневолити людство. Нейросети не здатні самостійно змінювати свої параметри або програму, щоб вийти з-під контролю.

Щось таке теоретично може сильний ІІ. Але, як згадувалося вище, із сучасними технологіями створити його не вийде.

Міф 8. Роботи зі штучним інтелектом вбиватимуть людей

Возможности искусственного интеллекта ограниченны программой
Запит: Термінатор полює на людей. Зображення: Stable Diffusion Online

Коли ми говоримо про небезпеку ІІ та повстання машин, то зазвичай малюємо в голові картинки з фільмів на кшталт «Термінатора». Відома штучним розумом орда механічних створінь, схожих на людину, але сильніше і швидше за неї, винищує своїх винахідників.

На практиці цей сценарій вкрай малоймовірний, і справа навіть не у відсутності в ІІ бажання когось вбивати. Просто поточний стан робототехніки сильно відстає від того, що ми бачили в Термінаторі і Матриці.

Наприклад, робопси компанії Boston Dynamics відрізняються по можливостях від чотирилапого вбивці із серії Metalhead «Чорного дзеркала». Бігати так швидко, щоб переслідувати людей, що тікають, вони не вміють. При спробі наздогнати вас на сходах той самий Spot запросто може заплутатися у своїх ногах і впасти.

Ще більш вагома перешкода на шляху до створення механізованих вбивць – відсутність досить компактного, потужного та довготривалого джерела енергії.

Робопси Boston Dynamics здатні "прожити" на одному заряді до 90 хвилин – цього явно недостатньо, щоб уявити з них армію для знищення людства. Ті, що працюють 120 років поспіль реакторних установок, які можна помістити в груди машини розміром з людину, як у «Термінаторі», теж ще не придумали.

Зрештою, засунути ІІ в автономний механізм — завдання нездійсненне. Це у фантазії Джеймса Кемерона він міститься в чіп розміром з ніготь. Насправді ж для того, щоб змусити штучний інтелект розуміти, потрібні значні обчислювальні потужності — ChatGPT, наприклад, працює на фермі, що складається з 10 000 відеокарт.

Уявляєте, яких розмірів має бути величезний людиноподібний робот, щоб умістити в себе такі «мозки», і яке має бути охолодження?

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Цей сайт захищений reCAPTCHA і застосовуються Політика конфіденційності та Умови обслуговування Google.

The reCAPTCHA verification period has expired. Please reload the page.