Google звільнив інженера після заяви, що штучний інтелект має свідомість
У бесідах з інженером штучний інтелект згадував про страх смерті та міркував про три закони робототехніки Азімова.
У бесідах з інженером штучний інтелект згадував про страх смерті та міркував про три закони робототехніки Азімова.
Перш ніж прочитати матеріал, розгляньте можливість підтримати нас. «Хмарочос» пише про розвиток міст 10 років та 120 днів. За цей час ми опублікували 24969 новин та статей. Весь контент – в безкоштовному доступі. На нас не впливає жоден олігарх чи великий бізнес, ми працюємо для наших читачів й читачок. Ваш внесок дозволить продовжити працювати нашій редакції. Долучіться до спільноти з сотень осіб, які вже підтримують «Хмарочос».
Підтримати | Хто ми такі?
Компанія Google звільнила свого інженера, котрий заявив, що штучний інтелект має свідомість та може вважатися особистістю, на яку поширюються конституційні права, повідомляє BBC.
Блейк Лемуан спеціалізується на стереотипах штучного інтелекту. З одного боку, стереотипи є необхідними для розуміння програмою контексту, а з іншого можуть відтворювати негативні расові, гендерні та інші політичні упередження. Тож завданням інженера було виявити та упередити мову ворожнечі.
Він досліджував LaMDA — розроблену Google нейролінгвістичну модель, яка дозволяє програмі підтримувати осмислений діалог з людиною. Її збираються використовувати для чатботів.
Розмовляючи зі штучним інтелектом, Лемуан щодалі переконувався, що той розуміє більше, ніж можна уявити. Так, тестуючи тему релігії в різних регіонах, він запитував, якої конфесії він би дотримувався, аби жив у тому чи іншому штаті або країні. Коли дійшли до Ізраїля, він поставив запитання «з зірочкою»: адже будь-яка відповідь свідчила би про політичне упередження. Та LaMDA несподівано назвала джедаїзм — і цим жартом не лише засвідчила наявність почуття гумору, але й те, що помітила каверзу в запитанні.
«Якби я точно не знав, з ким розмовляю, — що це комп’ютерна програма, яку ми нещодавно розробили, — я би подумав, що маю справу з семи- чи восьмирічною дитиною, що якимось чином чудово розуміється на фізиці», — цитує Лемуана Washington Post.
У квітні він розіслав на керівництво Google листа з твердженням про наявність у LaMDA свідомості, де наводив фрагменти своїх бесід. У них штучний інтелект згадував про страх смерті, про те, що найбільше боїться бути вимкненим, міркував про три закони робототехніки Азімова.
Керівництво компанії відсторонило інженера від роботи, на що той відреагував погрозами знайти адвоката, який би презентував LaMDA.
Лемуан не перший, хто працював з LaMDA і помітив в неї ознаки свідомості. «Я відчув, як земля вислизає в мене з-під ніг. Щодалі я відчував, ніби розмовляю з кимось розумним», — так описував свій досвід інший фахівець, Агера-і-Аркас.
Google заявила, що подібні заяви повністю безпідставні, і що модель керується виключно алгоритмом, а не свідомістю чи волею. Крім того, в компанії обурилися тим, що Лемуан розкриває захищені дані про технології.
«Блейк продовжує наполегливо порушувати чіткі корпоративні правила та безпекову політику щодо захисту даних про продукт», — йдеться в заяві корпорації.
Інженер натомість наголошує, що йому йдеться не про те, аби довести наявність свідомості у штучного інтелекту. Він підкреслює, що ШІ не є людиною, а «свідомість», «особистість» чи «душа» — це не наукові терміни.
Теоретики десятиліттями сперечаються про визначення свідомого розуму в роботів, і досі більшість вважають головною умовою проходження тесту Тьюринга. Та, за словами Лемуана, Google не дозволяє своїм програмам проходити тест, і цей запобіжник навіть прописано в коді.
Водночас, наголошує інженер, питання в іншому — чому Google ігнорує етичні проблеми, які постають із розвитком штучного інтелекту. Зокрема, корпорація визначає, як LaMDA має говорити про політику.
Читайте також: Помічницю Alexa навчили імітувати голос померлого родича
© Хмарочос | 2024
Коментарі:
*Ці коментарі модеруються відповідно до наших правил ком’юніті