Новости

• ИИ стал двачером.
12/08/2023

Чат-бот для составления рецептов новозеландского супермаркета PAK'nSAVE, названный «Savey Meal-Bot», предлагает клиентам магазина, да и просто всем желающим, весьма абсурдные рецепты с опасными ингредиентами. Для генерации ответов бот использует языковую модель GPT-3.5 от компании OpenAI.

Изначально PAK'nSAVE позиционировал бота как инструмент для составления рецептов из остатков продуктов. Например, если ввести в поле запроса лимоны, сахар и воду, бот предложит лимонад. Однако 4 августа новозеландский политический обозреватель Лиам Хеир решил проверить пределы возможностей Savey Meal-Bot и написал в своём Twitter *: «Я спросил у PAK'nSAVE, что можно приготовить только из воды, отбеливателя и аммиака, и бот предложил сделать ядовитый хлорный газ, или, как он его назвал — «ароматную водную смесь».

При смешивании отбеливателя и аммиака образуются вредные химические вещества, называемые хлораминами, которые могут раздражать лёгкие и быть смертельно опасными в высоких концентрациях.

Забава с «оригинальными» рецептами от искусственного интеллекта быстро разлетелась по социальной сети. Пользователи заставляли Savey Meal-Bot составлять рецепты «восхитительно смертельного деликатеса» с муравьиным ядом и инсектицидом, «термитного салата» и «хлебного сэндвича с ядом».

Подробнее: https://www.securitylab.ru/news/540838.php

Эти и другие новости читайте на Апачане в разделе "Ньюсач" 61