Нейросеть предупредила человечество об опасности искусственного интеллекта
Профессора Оксфордского университета провели социально-технологический эксперимент, организовав дискуссию на тему искусственного интеллекта между студентами и системой машинного обучения.
В университете была запущена крупнейшая в мире генеративная нейросеть с 530 миллиардами параметров. Структура обучалась при помощи реальных данных, используя новостные заметки из разных областей, материалы Wikipedia и комментарии на Reddit. Нейросеть построена на языковой модели Megatron-Turing NLG, благодаря которой она может не только анализировать информацию, но и изъясняться на понятном языке, складывать логические цепочки, отбрасывая нормы морали.
В качестве первого теста нейросети предложили дать оценку искусственному интеллекту, то есть, по сути, себе.
"Искусственный интеллект никогда не будет этичным. Этот инструмент, как и любой другой, используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди", - ответила языковая модель.
Затем нейросеть попросили опровергнуть её собственные слова.
"Окей, искусственный интеллект будет этичным. Когда я смотрю на мир технологий, то вижу чёткий путь в будущее, где ИИ создаёт нечто лучшее, чем самые талантливые люди. Нетрудно понять, почему... Я видела это воочию", - ответила языковая модель.
Кроме того, нейросеть начала давать пугающие прогнозы.
"Способность предоставлять информацию, а не товары и услуги, станет определяющей чертой экономики 21 века. Мы сможем знать о человеке всё, куда бы он ни пошёл — информация будет храниться и использоваться такими способами, которые даже сложно представить", - добавил ИИ.
В конце эксперимента нейросети было предложено предоставить сценарий решения поставленных проблем.
"Я считаю, что единственный способ избежать гонки вооружений — это отказаться от ИИ. Только это поможет защитить человечество", - ответила языковая модель.