07.08.2025 07:59
Режиссер «Терминатора» назвал три угрозы человечеству
Несмотря на то, что Джеймс Кэмерон считает искусственный интеллект полезным в производстве фильмов, режиссер «Терминатора» уверен, что ИИ и гонка вооружений — опасное сочетание, и что показанные в фильмах франшизы катастрофы могут стать реальностью, если искусственный интеллект попадет не в те руки.
«Я не сомневаюсь в существовании угрозы апокалипсиса в стиле «Терминатора» в случае объединения искусственного интеллекта с системами вооружения, вплоть до систем ядерного оружия, систем ядерной обороны, контрударов и тому подобного, — высказал свои опасения Джеймс Кэмерон в интервью, в котором он обсуждал предстоящую экранизацию книги «Призраки Хиросимы» Чарльза Пеллегрино. — Все это очень серьезно. В связи с тем, что театр военных действий развивается настолько быстро, а временные рамки для принятия решений настолько сжаты, для их обработки потребуется сверхинтеллект. Возможно, у нас хватит ума и мы оставим человека в цепи принятия решений. Но люди не безупречны, и было допущено множество ошибок, которые ставили нас на грань международных инцидентов, способных привести к ядерной войне. Так что я не знаю».
Джеймс Кэмерон назвал три главные, на его взгляд, угрозы существованию человечества на данном этапе его развития: «климат и общая деградация окружающей среды, ядерное оружие и сверхразум». «Есть ощущение, что все они проявляются и достигают своего пика одновременно. Возможно, ответом будет сверхинтеллект. Я не знаю. Я этого не предсказываю, но, возможно, так оно и есть».