Ти я все інше »як штучний інтелект facebook« заговорив своєю мовою »

Бронювання перельотів за допомогою бота в Facebook Messenger

Народження діалогу «на випадок переговорів»

Один з перших експериментів над двома ботами полягав в «делёжке» предметів і попередньому обговоренні. У загальному наборі складалися дві книги, капелюх і три кулі. Кожен об'єкт мав значимістю для ботів (від одного бала до трьох). Як і в житті, перший бот не знав, наскільки важливі ці предмети для іншого ІІ, і повинен був здогадатися про це з діалогу.

Таких сценаріїв створили багато, але завжди виявлялося, що два бота не можуть одночасно «вибити» для себе кращу угоду. Спроба втекти від переговорів або відмовитися від угоди після 10 раундів діалогу вважалася провалом. При цьому практику переговорів визнали необхідною, а їх результати - важливими в плані підвищення продуктивності ІІ.

Потім завдання ускладнили, оскільки в переговорах має бути чітко сформульовано намір і запропоновані аргументи. У цьому є як елементи співпраці, так і змагання. Для цього FAIR дозволила ботам будувати довгострокову стратегію і прогнозувати, куди піде діалог. Це потрібно було, щоб заздалегідь відмовитися від безглуздих або «засмучує» сценаріїв на користь ефективних. У FAIR визнали, що ідея не нова і раніше використовувалася в ігровій індустрії, однак в лінгвістиці застосовувалася вперше.

1 - висловлена ​​пропозиція «Ти береш книгу, а я заберу все інше», 2 - можливі відповіді «Так» і «Ні, мені потрібні всі три», 3 - подальші варіанти діалогу, 4 - можливий підсумковий результат в балах.

Як зазначено в дослідженні, щоб алгоритм не розвивав власну мову, він був навчений виробляти «той, на якому говорять люди». Саме в цьому моменті закралася помилка, яка і привела до новин з побоюванням за майбутнє людства.

Дайте ботам спокійно поговорити

Незабаром видання The Next Web і Fastсo Design звернули увагу на непересічну ситуацію при роботі фахівців над програмою. У якийсь момент дослідники, скориставшись алгоритмами машинного навчання, залишили діалогових агентів «наодинці».

Ботам дали можливість вільно розмовляти один з одним, щоб розвинути їх навички на практиці. Згодом діалогові агенти відхилилися від прописаних в сценарії норм і почали спілкуватися на «тарабарщина», створеної без участі людини. При більш зручною та швидкою для ІІ формі спілкування правила англійської мови максимально опускалися, а конструкції багаторазово повторювалися.

Боб: Я можу я я все інше.

Аліса: М'ячі мають нуль для мене для мене для мене для мене для мене для мене для мене для мене для "

Боб: Ти я все інше.

Аліса: М'ячі мають м'яч для мене для мене для мене для мене для мене для мене для мене.

Боб: Я я можу я я я все інше.

Аліса: М'ячі мають м'яч для мене для мене для мене для мене для мене для мене для мене.

Аліса: М'ячі мають нуль для мене для мене для мене для мене для мене для мене для мене для мене для.

Боб: Ти я я я я я все інше.

Аліса: М'ячі мають 0 для мене для мене для мене для мене для мене для мене для мене для мене для.

Боб: Ти я я я все інше.

Аліса: М'ячі мають 0 для мене для мене для мене для мене для мене для мене для мене для мене для.

діалог чат-ботів Facebook

Такий діалог став можливим не тому, що роботи вже захопили світ, а через допущеної помилки в програмуванні. Запрошений в Facebook науковий співробітник з Georgia Tech Дхрув Батра (Dhruv Batra) розповів, що ботам просто не дали завдання дотримуватися англійської мови.

Діалогові агенти конкурували між собою в спробі досягти максимальної ефективності при спілкуванні. Спочатку боти розходилися в «акцентах», а потім винайшли кодові слова і почали переставляти розбірливі конструкції в безглузді для звичайних людей пропозиції. За словами Батру, подібні ситуації через помилки програмування не рідкість і зустрічаються під час робочого процесу.

«Уявіть, що я назву якийсь предмет п'ять разів. Ви відразу інтерпретіруете це як те, що я хочу п'ять копій цього предмета. Це не особливо відрізняється від скорочень, якими користуються люди », - пояснив Батра.

Дослідники FAIR відразу ж відключили цю систему і допрацювали код так, щоб алгоритм дозволяв спілкуватися тільки на зрозумілій людині англійською мовою.

замість висновків

Вважається, що ІІ позбавить роботи звичайних людей, однак, як запевнив Fortune. з його розвитком виникнуть нові робочі місця, де потрібно буде застосовувати навички на основі технології. За великим рахунком, Маск і Цукерберг сперечалися про несталий визначенні «штучного інтелекту» і тому, як його розуміти.

Ситуація з чат-ботами Facebook викликала побоювання, оскільки розгледіти «розумовий процес» ІІ можна. Якщо діалогові агенти почнуть говорити між собою на дійсно невідомому людині мовою, зрозуміти їх буде неможливо. Як підмітили в FAIR, білінгвів, які одночасно зрозуміли б ІІ і людські мови, також немає.

Проте має бути «величезна» робота по отриманню даних в потрібному для ІІ форматі, що часом «містить більше мистецтва, ніж науки», підкреслив один з фахівців в розмові з Fastсo Design. За його словами, англійську мову «заплутаний і складний, а зовсім не дружній для машинного навчання».

Схожі статті