Nick Bostrom
スウェーデン出身の哲学者。人工知能、未来学、存在論的リスク(人類存続のリスク)を研究する思想家として知られる。イギリスの University of Oxford にある Future of Humanity Institute の創設者。
人工知能や超知能が人類文明に与える長期的影響を哲学的・科学的に分析し、AI安全性研究の分野に大きな影響を与えた。
代表作
・『Superintelligence(スーパーインテリジェンス)』
・『Anthropic Bias』
主な概念
・スーパーインテリジェンス:人間の知能を大きく超える人工知能
・存在論的リスク(Existential Risk):人類文明の存続そのものを脅かすリスク
・シミュレーション仮説:私たちの宇宙が高度文明によるシミュレーションである可能性
・AI制御問題:超知能を人類の価値と整合させる問題
人工知能の進化は人類史最大の転換点になる可能性があり、超知能をどのように制御し共存するかが文明の未来を決めるという視点を提示した。
