Стивен Хокинг: научно-технический прогресс может уничтожить жизнь на Земле
Модератор: Вымпел
Стивен Хокинг: научно-технический прогресс может уничтожить жизнь на Земле
Ядерная война, глобальное потепление и генетически модифицированные вирусы — это некоторые из сценариев, которые Хокинг называет причиной возможного исчезновения человечества с Земли. И он говорит, что прогресс в науке и технологиях будет создавать всё новые и новые угрозы, так что с каждым годом риск возрастает.
«При том, что в отдельно взятом году угрозу глобальной катастрофы на планете можно оценить как относительно невысокую, с течением времени риск будет только возрастать, что сделает подобное бедствие практически неизбежным в ближайшие тысячу или десять тысяч лет, — сказал Хокинг. — К этому времени мы должны будем обосноваться в космосе, на других звёздах, чтобы конец Земли не стал концом человечества».
https://geektimes.ru/post/269456/
Мама, я хочу Пикачу! | totaku.ru | Играюсь в игры
мне не платят за рекламу, но это не мешает мне рекламировать, то что мне нравится ^_^
мне не платят за рекламу, но это не мешает мне рекламировать, то что мне нравится ^_^
Re: Стивен Хокинг: научно-технический прогресс может уничтожить жизнь на Земле
Искусственный интеллект снабдили общепринятыми моральными нормами
http://www.dailytechinfo.org/infotech/7 ... ipami.html
"Мы полагаем, что для того, чтобы иметь возможность вписаться в любое общество, искусственный интеллект должен быть максимально изолирован от какой-либо определенной культуры, но при этом, он должен стремиться избегать недопустимого в обществе поведения" - рассказывает Марк Ридл, - "Давая искусственному интеллекту способность читать и воспринимать наши рассказы, понимать причины и последствия действий, мы снабдим его принципами, соответствующими общепринятой морали. И прямого участия человека в этом деле может и не потребоваться".
Что-то как-то всё равно не по себе. Ведь это машина, рациональная. Она быстро поймёт, что человек это какое-то неправильное деструктивное создание
http://www.dailytechinfo.org/infotech/7 ... ipami.html
"Мы полагаем, что для того, чтобы иметь возможность вписаться в любое общество, искусственный интеллект должен быть максимально изолирован от какой-либо определенной культуры, но при этом, он должен стремиться избегать недопустимого в обществе поведения" - рассказывает Марк Ридл, - "Давая искусственному интеллекту способность читать и воспринимать наши рассказы, понимать причины и последствия действий, мы снабдим его принципами, соответствующими общепринятой морали. И прямого участия человека в этом деле может и не потребоваться".
Что-то как-то всё равно не по себе. Ведь это машина, рациональная. Она быстро поймёт, что человек это какое-то неправильное деструктивное создание