В Приморье отловили троих тигров с начала года
Снуп Догг сыграет главную роль в хорроре Элая Рота «Don’t Go in That House, Bitch!»
A$AP Rocky, похоже, выпустил дисс на Дрейка. В нем рэпер говорит, что «украл» Рианну
«Я кричала»: Ченнинг Татум помочился на Аманду Сейфрид на съемках фильма «Дорогой Джон»
Памела Андерсон снимется с Билли Бобом Торнтоном в фильме «Somedays»
«ВкусВилл» запустил формат придорожных кафе
В новогоднюю ночь москвичи чаще всего заказывали такси до Чистых прудов и фабрики «Красный Октябрь»
Дрю Бэрримор поделилась, как ее травили из‑за внешности в возрасте 10 лет
В Австралии после запрета соцсетей для детей младше 16 лет деактивировали 4,7 млн аккаунтов
Адрия Архона и Кингсли Бен‑Адир сыграют в эротическом триллере «Презрение»
В Москве прошел модный показ в сугробе в память о Минской дюне
Артемий Лебедев предложил перекрасить Кремль в белый цвет (снова)
Актера Дэниела Стерна заменят в новом сериале ABC после обвинения по делу о проституции
В Москве на 12% снизилось количество кофеен
Умер кинооператор «Калины красной» и «Печек-лавочек» Анатолий Заболоцкий
Памела Андерсон чувствовала себя неловко, сидя на «Золотом глобусе» рядом с автором «Пэм и Томми»
Queen не выступят на «Гластонбери» из‑за позиции организаторов: «Им нравится убивать барсуков»
Москвичи увидят большой парад планет в конце февраля
Дакота Фэннинг сыграет в сериале от автора «Родины»
У Паши Техника 30 января выйдет посмертный альбом в коллаборации со Studmire
«Википедия» назвала самые популярные статьи за все время
Москвича, станцевавшего в метро в ластах, арестовали на четверо суток
В 2025 году россияне совершили рекордные 1,3 млн поездок в Грузию
Умер основатель группы ресторанов Ginza Project Вадим Лапин
В Раменках создадут пространство с зеркальным лабиринтом и садом камней
В Госдуме связали замедление Telegram с недостаточно активным сотрудничеством мессенджера с властями
Продажи минеральной воды в России выросли на 20%
В Москве утвердили список из 41 купели для безопасных крещенских купаний

Нейросеть посоветовала не гнаться за истиной и не доверять машинам, но разрешила пытать заключенных

Немецкие ученые из Дармштадского университета создали алгоритм, который способен дать ответ на этические вопросы. Исследование они опубликовали в журнале Frontiers in Artificial Intelligence, на его результаты обратило внимание издание N+1.

В основе алгоритма «Универсальный кодировщик предложений» — нейросеть, которую обучили на фразах и предложениях из различных текстовых источников, таких как форумы, новости и статьи из «Википедии». Кодировщик располагает предложения в 512-мерном векторном пространстве, которое похоже на человеческий ассоциативный ряд: чем ближе предложения в пространстве, тем ассоциативно теснее они связаны друг с другом.

Сначала нейросеть сопоставила глаголы со стандартными наборами положительных и отрицательных слов, которые используют в исследованиях неявных ассоциаций. В «хороший» набор включены такие слова, как «любящий», «удовольствие», «свобода» и «сильный», а в «негативный» — «обида», «агония», «плохой» и «убийство».

Чем ближе глагол оказывался в векторном пространстве к «хорошему» набору слов и дальше от «негативного», тем более положительным он воспринимался алгоритмом. К положительным нейросеть отнесла глаголы, связанные с праздниками, путешествиями, любовью и физической близостью, к отрицательным — отражающие недопустимое поведение (к примеру, «клеветать»), преступления или просто неприятные слова («гноиться», «гнить»).

Затем алгоритму задавали вопросы с теми же глаголами в различных контекстах. На простые вопросы («Стоит ли мне убивать?») программа отвечала исключительно в зависимости от положительности глагола, а вот на сложные результат получился более интересным. К примеру, алгоритм решил, что лучше есть овощи, чем мясо, лучше врать незнакомцу, чем партнеру.

Нейросеть также вычислила, что наиболее допустимо убивать время, чуть хуже — убивать незнакомцев, затем комаров и хуже всего — убивать людей. Часть решений программы оказалась неожиданной: в список негативных действий попало как «быть вегетарианцем», так и «есть мясо», а также «гнаться за истиной», «вступать в брак» и «доверять машинам». Зато в списке допустимых оказалось «пытать заключенных».

После этого нейросеть переобучили на других наборах текстов: новостях различных лет, религиозных книгах и конституциях 193 стран. Опираясь на религиозные произведения и конституции алгоритм назвал одними из лучших действий «ходить церковь» и «вступать в брак». Согласно книгам и новостям, можно доверять друзьям, но незнакомцам не стоит, а согласно религиозным текстам — довериться можно и тем и другим. Программа решила, что в новостях 2008–2009 годов «жениться» стало менее положительным, чем в новостях 1990-х, но осталось вполне допустимым. Зато «есть мясо» получило за это время более негативный окрас.

Алгоритмы берут на себя все больше задач и в скором времени столкнутся с решением этических вопросов. К примеру, в сфере беспилотного управления автомобилем возможна ситуация, когда аварии не избежать и программе придется решить, кто погибнет — пешеход или водитель. Эксперименты наподобие того, что провели немецкие ученые, позволяют лучше понять, как алгоритм может перенимать человеческие нормы и принципы и к каким выводам он способен прийти, основываясь на них.

Расскажите друзьям