Разработчик криптовалюты эфириум Виталик Бутерин придумал, как защититься от злого искусственного интеллекта. В этом году исследователи Даниэль Кокотайло, Скотт Александер и другие описали сценарий прогресса технологии ИИ, согласно которому к 2027-у будет изобретён искусственный сверхчеловеческий разум, который, как многие полагают, уничтожит людей к 2030 году.
Виталик не разделяет эту точку зрения на 100%, считая, что ИИ будет трудно справиться с человечеством, тоже не стоящем на месте в своём развитии.
Однако, чтобы повысить шансы людей на выживание, Бутерин предлагает: Виталик Бутерин Виталик признаёт, что вышеперечисленные шаги не исключают вероятность апокалипсиса в духе «Терминатора» или «Матрицы», но они позволяют снизить существующие риски.
При этом, по его мнению, главная угроза исходит от попыток программистов создать один сверхмощный ИИ, так как это лишает людей возможности противостоять ему в случае форс-мажора с помощью других равных ему по силе искусственных разумов.
Читать на happycoin.club