(ASI)人類滅亡レベルの危機を話し合うスレアーカイブ最終更新 2018/11/29 01:061.オーバーテクナナシーejk8GNew未来に関わるリスクの把握と、それを議論しましょう。人類滅亡レベルのリスクとは・・・地球全体規模(Global)で、人類の存続に関わる深刻なリスク(Profound)のこと。※ニック・ボストロム氏のリスクのカテゴリーの定義を参考人類滅亡レベルのリスクの例・スーパーインテリジェンス(ASI)→超知能の暴走・グレイ・グー(Grey goo)→ナノマシンの無限増殖・異常気象→限定的な地域の温暖化・寒冷化、洪水(地震もあり)・核兵器などなど出典 https://rio2016.5ch.net/test/read.cgi/future/15434212182018/11/29 01:06:581すべて|最新の50件
人類滅亡レベルのリスクとは・・・
地球全体規模(Global)で、人類の存続に関わる深刻なリスク(Profound)のこと。
※ニック・ボストロム氏のリスクのカテゴリーの定義を参考
人類滅亡レベルのリスクの例
・スーパーインテリジェンス(ASI)
→超知能の暴走
・グレイ・グー(Grey goo)
→ナノマシンの無限増殖
・異常気象
→限定的な地域の温暖化・寒冷化、洪水(地震もあり)
・核兵器
などなど