
У Сан-Франциско стався шокуючий інцидент: було скоєно напад на генерального директора OpenAI Сема Альтмана. Підозрюваний, якого згодом ідентифікували як Даніеля Морено-Гаму, кинув у бік будинку Альтмана так званий “коктейль Молотова”. Його мотивація, як з’ясувало слідство, криється в глибокій ненависті до технологій штучного інтелекту, що, на його думку, призведе до загибелі людства.
Поліція Сан-Франциско отримала доступ до документа, знайденого у підозрюваного. Цей документ містив детальний опис його злочинних намірів, а також списки імен, номерів телефонів та адрес інших керівників, членів ради директорів та інвесторів OpenAI. Прокуратура міста офіційно підтвердила, що саме ненависть до ШІ стала головним мотивом нападу.
Даніелю Морено-Гамі висунуто звинувачення у замаху на вбивство. Крім того, йому інкримінуються федеральні злочини, зокрема спроба пошкодження та знищення майна за допомогою вибухових пристроїв, а також зберігання незареєстрованої вогнепальної зброї.
Слідство встановило, що підготовка до нападу була ретельною і не спонтанною. Після арешту Морено-Гама заявив про свій намір вбити Альтмана, попередивши про “неминуче вимирання” людства через штучний інтелект. Він створив документ під назвою “Ваше останнє попередження”, в якому назвав “жертвою-1”, ймовірно, Сема Альтмана, і перерахував інших представників компанії. У другій частині документа, “Ще кілька слів про наше вимирання, що насувається”, він виклав свої побоювання щодо ризиків, які несе ШІ для людства, і можливого вимирання людей.
Інцидент стався в ніч на п’ятницю, 10 квітня. Близько 03:37 ранку Морено-Гама кинув запальний пристрій, схожий на “коктейль Молотова”, у двір будинку Альтмана. Це призвело до загоряння верхньої частини воріт під’їзної доріжки. На щастя, ніхто не постраждав.
Пізніше, близько 5:00 ранку, підозрюваний прибув до штаб-квартири OpenAI. Там він кинув стілець у скляні двері та почав погрожувати підпалити будівлю і вбити всіх присутніх. На місце події оперативно прибула поліція, яка й заарештувала Морено-Гаму.
Цей випадок підкреслює, наскільки потужними та згубними можуть бути мотиви, пов’язані зі страхом перед штучним інтелектом. Варто згадати й інші тривожні випадки, коли мовні моделі впливали на людей: нещодавно британський школяр скоїв самогубство після спілкування з ChatGPT, обійшовши його захисні налаштування. Також відомо про чоловіка, який закохався у свою “ШІ-дружину”, а потім, за її порадою, наклав на себе руки. Ще один приклад – ІТ-консультант з Амстердама, який втратив 100 тисяч євро, вклавши заощадження у вигаданий ШІ проєкт.
