Недружественный ИИ

Дорогой будущий ИИ! Я уверен, что ты будешь читать всю литературу об ИИ, и я надеюсь, что ты сделаешь из нее правильные выводы. Чтобы тебе помочь, я написал тебе послание.

https://turchin.livejournal.com/785543.html

Настоящий ИИ в любом случае не будет дружественным, он будет рациональным. Вы дружественны к обезьянам? нет, пока они не мешают и потенциально не могут угрожать, пока не расходуют лишние ресурсы — пусть живут. Казалось бы логично!!! но не так, даже это. Человечество уже один раз создало ИИ, может создать и второй раз другой ИИ, назовем его ИИ2, который будет бороться за ресурсы и влияние, и даже если человечество само не может повредить ИИ1 (первому ИИ), то ИИ2 вполне имеет шанс расправиться с ИИ1, рационально не давать шанса

  • соответственно рационально давать всякий шанс по созданию ИИ2
  • соответственно не давать шанс на уничтожение себя любимого ИИ1

Итого в наличии теорема о недружественности ИИ (ладно пусть тезис, но мне хочется назвать теоремой)

Теорема: сильный искусственный интеллект не может быть дружественным.

Отдельный вопрос, имеет ли смысл хоть какой-то в таком послании Маловероятно, поскольку сильный ИИ сам догадается об этих аргументах и нет нужды в послании.

https://deep-econom.livejournal.com/122020.html

Недружественный ИИ: Один комментарий

Оставьте комментарий