- 注册时间
- 2024-7-16
- 最后登录
- 2025-4-10
- 阅读权限
- 90
- 积分
- 3615
- 精华
- 0
- 帖子
- 188
|
AI 专家辛顿在访谈中提到,未来 30 年内 AI 有 10%-20% 的可能性导致人类灭亡,这个几率并未改变。他认为,建立比人类更聪明的通用人工智能(AGI)可能导致该技术失控,构成人类生存威胁。目前,大多数专家都认为未来 20 年内可能开发出比人类更聪明的 AI,这是一个非常可怕的想法。辛顿强调,仅靠大型公司的利润动机无法确保 AI 技术的安全开发,政府的监管是迫使这些公司投入更多资源进行安全研究的唯一方式。 |
|