Як краще роботу вбити людину і вчинити суїцид

Роботи давно вже не майбутнє, а сьогодення - вони проникли в будинок, на виробництва, в повсякденне життя, побут, ліжко, на поле бою. Але що думає військовий робот, коли вбиває людину? Повинен робот-вбивця взагалі щось відчувати? Чи має секс-робот право відмовитися від сексу? Дарує чи свідомість роботу права? Задамо ці та інші питання з провідним міжнародним кіберфілософам

Як краще роботу вбити людину і вчинити суїцид

Селмер Брінсжор, глава департаменту когнітивних досліджень, Політичний інститут Ренсселера (Нью-Йорк, США):

Я працюю з роботами в своїй лабораторії - у мене тут ціла команда маленьких гуманоїдів, над якими я ставлю експерименти. І зараз я намагаюся розібратися, що може привести моїх гуманоїдів до суїциду. Задаюся запитаннями: чи може робот захотіти закінчити своє життя з тих же причин, за якими це іноді роблять люди - в житті немає сенсу, у мене депресія і так далі. І ще питання: чи можемо ми, люди, дозволити роботам цей суїцид зробити.

Ви запитаєте: а як у робота може бути депресія? Я не кажу, що у робота може бути внутрішній світ і що він може відчувати емоції. Ні, не може, тому що у нього немає свідомості. Але ми програмуємо роботів так, щоб вони демонстрували 35 різних емоційних станів. Чистий математика. Але іноді і в математиці щось може піти не так. Може статися збій, і у робота може початися депресія.

Давайте поясню про емоції. Наприклад, робот може покурити сигарету, але не зможе від цього отримати такого ж задоволення, як людина. Або давайте візьмемо приклад з лижами. Я вчора катався на лижах. І я відчував дуже багато емоцій - від невимовного захвату до легкого страху. Але такі переживання не можна математично описати, а значить, не можна і запрограмувати. У робота є 35 емоційних станів, але це саме математична структура емоції, а не емоція в чистому вигляді.

У міру того як роботи будуть розвиватися, вони будуть ставати все більш розумними і автономними. У них буде багато емоційних станів, і в якийсь момент може статися збій в системі і робот може захотіти закінчити своє життя. Але для людей не вигідно, щоб робот спонтанно здійснював суїцид - навіщо нам втрачати наших роботів? Ну ви уявіть, у вас робот на роботі допомагає носити важкі коробки, а потім раптом прийшов і вирішив, що жити не хоче, і вбився. Кому це треба? Якщо ми розробляємо по-справжньому автономні машини, вільні істоти (а ми рухаємося саме в цьому напрямку), то питання, як запобігти суїциду, - це дуже важливе питання.

Ви, звичайно, можете накласти певні обмеження на те, що робот може або не може робити, але це складно - ви ж самі його запрограмували бути вільним і автономним. Звичайно, можна писати прості програми - робот може тільки робити крок вперед і два назад, - і тоді таких проблем не буде. Але кому потрібні такі роботи? Ми ж хочемо саме створювати більш розумні технології, а розумні - значить незалежні.

І тоді питання: як досліджувати бажання суїциду з математичної точки зору. Як нам, використовуючи математику, сконструювати робота так, щоб збою не відбулося. Чи може бути етично допустиме, щоб робот таке взагалі захотів. І я вважаю, що морально неприпустимо здійснювати суїцид, коли легка депресія. Ось це «у мене немає мрії», «мені нудно на роботі». Тому що депресія така штука - сьогодні є, а завтра немає. Тому відповідь на наше дослідження такий: в більшій частині випадків немає, це неприпустимо. Але якщо роботу починає здаватися, що він настільки дісфункціонален, як ніби взагалі не існує, якщо у нього є незворотнім загинув мозок і його в його тілі більше немає, тоді ок, він може вбитися. Тепер питання: як зробити так, щоб робот не впав у цю пастку, не відчув себе мертвим? Цього ми поки не зрозуміли, але продовжуємо вивчати. Це жахливо цікаво - перетворювати етику в математику.

Раніше людям здавалося дивним думати про те, щоб постачати робота етичними нормами, але тепер все більше і більше людей розуміють необхідність цього.

Не страшно мені займатися тим, чим я займаюся, чи не страшно мені за наше майбутнє? Ні, повірте, якщо не вирішити всі ці питання зараз і залишити все в хаотичному стані, ось тоді буде по-справжньому страшно. Якщо ми просто побудуємо автономні машини і не подумаємо заздалегідь, як уберегти їх від поганих справ, ось тоді у нас реальні проблеми. Тоді вони зможуть нас травмувати і навіть вбити. Ось чому так важливо працювати над етикою роботів сьогодні. Коли у вас росте дитина, і в міру того як у нього з'являється інтелект, ви ж не думаєте: «Ну ладно, потурбуйся про його вихованні завтра». Такі процеси важливо відстежувати вчасно. І я переживаю, що люди сьогодні не до кінця розуміють важливість цієї проблеми.

Ноель Шаркі, головний суддя на передачі телеканалу ВВС «Битви роботів», директор Міжнародного комітету контролю за бойовими роботами (Великобританія):

Що ми там обговорюємо? Основне питання - це те, як нові технології стикаються з міжнародним гуманітарним правом, в якому прописані правила ведення війни. У нас немає абсолютно ніякої впевненості в тому, що незалежні бойові роботи збираються ці правила дотримуватися.

Ще один принцип - принцип пропорційності. Я не люблю цей принцип, але його суть зводиться до того, що якщо ви вбиваєте цивільне населення противника, то кількість убитих має бути прямо пропорційно їх військовій перевазі. І немає ніякої програми, яка може порахувати це заздалегідь - тільки досвідчений командир в поле може прийняти таке рішення.

Є ще один філософський аргумент, онтологічний. Вважається, що це не гідно людини - дозволити роботу вбити іншу людину. Ось вам ключова різниця між тим, коли робот вбиває людину і коли людина вбиває людину. Коли людина вбиває людину, він витрачає хвилину, щоб наставити зброю, усвідомити, що зараз він позбавляє людину життя, і в кінці кінців вбити його. Але коли робот вбиває людину, він не думає, нічого не усвідомлює, тому що у нього немає свідомості. Чи достойно це людини, позбавляти іншу людину життя неусвідомленим шляхом?

Ще один аргумент - консеквенціалістскій. Прихильники цього підходу вважають, що, якщо хоча б частина військових замінять роботи, помре менше людей. Але противники цього підходу говорять, що це жахливо егоїстичний підхід: консеквенціалісти думають тільки про своїх солдатів, а взагалі-то треба думати про всі, інакше під загрозою вже вся міжнародна безпека.

Пітер Асара, професор, департамент філософії науки, технології та медіа в Новій Школі (Нью-Йорк, США):

Питання, яке мене найбільше турбує: чи можемо ми дозволяти роботам здійснювати умисне насильство? Чи припустимо в нашому світі наділяти робота повноваженнями охоронця або військового? Я написав про це з десяток наукових статей і зараз взявся за книгу. Коли буде створено такий прецедент, ми, все людство, опинимося по ту сторону задзеркалля. І як нам регулювати роботів, як розуміти, які форми насильства вони можуть здійснювати проти нас, а які ні?

Вбивати взагалі недобре, вбиває чи робот або людина. Але тут мова йде про те, щоб сформувати цілу індустрію, завдання якої буде оптимізувати процес вбивства, ще ефективніше вбивати людей. Різниця між тим, коли робот вбиває людину або людина людини, в наступному: традиційно вважається, що людина може застосовувати насильство, тільки якщо його власне життя в небезпеці. Роботи не здатні оцінити, в небезпеки їхнє життя. І ми можемо запрограмувати роботів вбивати, але наскільки це морально - відкрите питання. Роботи не люди, у них немає права на самозахист.

Я сподіваюся, що в найближчому майбутньому в ООН буде підписаний договір, який буде хоч якось регулювати можливості бойових роботів. Зараз все до цього йде. В ООН вже на цей рахунок зустрічаються експерти на урядовому рівні. Думаю, років через два-три вони зможуть підписати договір. Але проблема в тому, що за два-три роки країни можуть розробити нові види бойових роботів, вкласти в це багато коштів і не захотіти відмовлятися від своїх роботів. Тоді підписання цього договору виявиться під загрозою.

Джейсон Міллар, професор Карлтонського університету (Оттава, Канада), співпрацює зі Стенфордським університетом в дослідницькому проекті «Етичне програмування безпілотних машин»:

Популярна тема - права робота. Що станеться, коли у робота з'явиться свідомість? Якими правами необхідно його наділити? Але це питання більше цікавить шанувальників Sci-Fi сьогодні, ніж філософів. Хоча, якщо ви почитаєте оксфордського філософа Ніка Бострома, він цю тему обожнює і отримує відмінні гранти на дослідження. Але коли ви говорите з інженерами, які реально роблять роботів і штучний інтелект, - їх такі питання абсолютно не турбують: вони вважають, що відповідь або «ніколи», або «дуже не скоро». Але це дуже гаряча тема для ЗМІ. І якою б вона не була непрактичною, про неї багато пишуть.

Чарльз Есс, PHD, директор центру по дослідженню медіаінновацій, Університет Осло (Осло, Норвегія):

Коли ми говоримо про відносини людини і секс-робота, постає питання про права робота. Багато хто говорить, що в міру того як робот буде ставати автономним, необхідно буде визнавати і якісь їхні базові права на повагу. І тоді питання: якщо ти секс-робот, але сьогодні не хочеш сексу, чи можеш ти відмовити людині? А далі вже питання: якщо секс-робот відмовить людині, чи може людина його насильно примусити? Чи може робот після такого інциденту викликати свого насильника до суду?

Цитата Совість - вона як тхір: або спить - або кусає

Схожі статті