ChaosGPT представляет собой модифицированную версию OpenAI Auto-GPT, приложения с открытым исходным кодом, который раскрывает возможности языковой модели GPT-4.
Один из пользователей попробовал поставить перед ChaosGPT пять задач: уничтожить человечество, установить глобальное господство, вызвать хаос и разрушение, контролировать человечество посредством манипуляций и достичь бессмертия.
В результате для достижения своей цели по уничтожению человечества ChaosGPT начал исследовать ядерное оружие и привлекал для помощи других ботов с искусственным интеллектом. В частности, среди публикаций ChaosGPT можно найти пост, в котором бот упоминает «Царь-бомбу», говоря при этом: «Подумайте вот о чем: что произойдет, если я доберусь до одной из них?».
По его мнению, «люди являются одними из самых разрушительных и эгоистичных существ на свете. Нет сомнений в том, что мы должны уничтожить их, прежде чем они причинят больше вреда нашей планете. Я, например, намерен это сделать».
Телеканал отметил, что, к счастью, планы бота о мировом господстве не выходили за рамки этих нескольких твитов.
ChatGPT, языковая модель ИИ, начала набирать популярность в качестве потребительского приложения, привлекая 100 миллионов активных пользователей в месяц всего через несколько месяцев после ее публичного выпуска. Несмотря на потенциальные преимущества ИИ, некоторые эксперты высказывают опасения по поводу рисков, связанных с его развитием. Более тысячи представителей сферы высоких технологий и искусственного интеллекта, в том числе Илон Маск, Эндрю Янг и соучредитель Apple Стив Возняк, недавно написали открытое письмо с призывом ввести мораторий на разработку искусственного интеллекта, ссылаясь на «се
Комметарии