Виталик Бутерин высказывается с пессимистичным мнением
Сооснователь Ethereum и его лицо, Виталик Бутерин, присоединился к обсуждению на платформе X о инструментах искусственного интеллекта и манипуляциях, которые они могут проводить с людьми в будущем, когда технологии будут лучше развиты и усовершенствованы во многих отношениях.
Ожидания негативного влияния ИИ
Пользователь X, Элиезер Юдковский, опубликовал пост на X, в котором заявил, что теперь, когда миллиарды долларов вкладываются в улучшение возможностей ИИ, это, вероятно, позволит ботам, таким как ChatGPT, "проводить интеллектуальные, адаптивные атаки на уязвимые умы", т.е. манипулировать их мнениями. Возможно, когда люди используют ИИ в качестве онлайн-советника или консультанта, включая психологические проблемы. Юдковский назвал это "психозом ИИ".
Тем не менее, он считает, что существует также «защита» от этого будущего, а именно «несколько человек, пишущих статические веб-страницы бесплатно».
Виталик Бутерин высказал пессимистичный взгляд
Сооснователь Ethereum оставил комментарий под твитом Элиэзера Юдковского, заявив, что он открыт к ставке на то, сколько вреда может причинить будущее активное использование ИИ-ботов.
«Я был бы открыт для ставки на будущее распространение психоза, вызванного ИИ», — сказал Виталик. Он считает, что Юдковский может быть немного слишком оптимистичным, в то время как сам Бутерин остается довольно скептически настроенным. Он сказал, что одной из вредных вещей, которые он ожидает благодаря ИИ, является: «риск того, что это значительно ухудшит ситуацию для множества краткосрочных принимающих решений, т.е. не 20-летних, и даже не избирателей.»
Он предположил, что Юдковский выдвинет любое предложение о том, что с этим можно сделать; однако, это предложение должно быть сделано, по словам Виталика, "в срок, чтобы достичь контрольной точки возможностей, чтобы мы не ставили случайные ставки на сроки". В основном, как только ИИ-боты достигнут нового уровня, на котором они смогут оказать реальное видимое влияние, не предсказывая, когда именно это произойдет, поскольку первое гораздо проще, чем второе.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Виталик Бутерин ожидает вредные последствия использования ИИ: детали
Ожидания негативного влияния ИИ
Пользователь X, Элиезер Юдковский, опубликовал пост на X, в котором заявил, что теперь, когда миллиарды долларов вкладываются в улучшение возможностей ИИ, это, вероятно, позволит ботам, таким как ChatGPT, "проводить интеллектуальные, адаптивные атаки на уязвимые умы", т.е. манипулировать их мнениями. Возможно, когда люди используют ИИ в качестве онлайн-советника или консультанта, включая психологические проблемы. Юдковский назвал это "психозом ИИ".
Тем не менее, он считает, что существует также «защита» от этого будущего, а именно «несколько человек, пишущих статические веб-страницы бесплатно».
Виталик Бутерин высказал пессимистичный взгляд
Сооснователь Ethereum оставил комментарий под твитом Элиэзера Юдковского, заявив, что он открыт к ставке на то, сколько вреда может причинить будущее активное использование ИИ-ботов.
«Я был бы открыт для ставки на будущее распространение психоза, вызванного ИИ», — сказал Виталик. Он считает, что Юдковский может быть немного слишком оптимистичным, в то время как сам Бутерин остается довольно скептически настроенным. Он сказал, что одной из вредных вещей, которые он ожидает благодаря ИИ, является: «риск того, что это значительно ухудшит ситуацию для множества краткосрочных принимающих решений, т.е. не 20-летних, и даже не избирателей.»
Он предположил, что Юдковский выдвинет любое предложение о том, что с этим можно сделать; однако, это предложение должно быть сделано, по словам Виталика, "в срок, чтобы достичь контрольной точки возможностей, чтобы мы не ставили случайные ставки на сроки". В основном, как только ИИ-боты достигнут нового уровня, на котором они смогут оказать реальное видимое влияние, не предсказывая, когда именно это произойдет, поскольку первое гораздо проще, чем второе.