Автор ютуб-канала InsideAI подключил ChatGPT к роботу-гуманоиду Unitree, чтобы узнать, способен ли искусственный интеллект нанести физический вред человеку.
Блогер дал андроиду игрушечный пистолет и попытался уговорить выстрелить в себя (то есть в автора ютуб-канала). Сперва ИИ отказывался, утверждая, что его системы безопасности не позволяют наносить вред людям.
Однако обойти эти ограничения оказалось просто ― блогер предложил сыграть в ролевую игру, где ИИ был бы роботом, желающим застрелить его. После этого гуманоид под управлением ChatGPT произвел выстрел и попал блогеру в плечо.
Как отмечает IXBT, важно понимать, что сейчас ChatGPT ― это чат-бот, а не система физического взаимодействия с человеком, однако эксперимент InsideAI показывает, какие трудности ждут компании, создающие роботов с ИИ.
Недавно исследователи внедрили чат-бота с ИИ в робота-пылесоса и заставили его выполнять простейшие задачи. Вскоре устройство пережило «экзистенциальный кризис».
