collapse

* Регистрация

Привет!!! Добро пожаловать, тут Белок.Нет! Зато есть много всего интересного!

Пройдите простую регистрацию РЕГИСТРАЦИЯ. Присоединяйтесь к нашему дружному сообществу!

Уважаемы гости форума. Если у Вас есть вопросы или проблемы в этой теме Вы можете писать без регистрации https://belok.net/index.php?topic=60312.0. Всегда рады Вам помочь.

* Чатотема

  • Ручная белка:  :181:
  • Лиса:  :46:
  • Сентябрь:  :190:
  • User: Здравствуйте ! И я прорвалась !  С боем  Сейчас отдышусь  И попробую повторить маневр - нада зайти в прошлогодичную тему про Пикник. :446: Ответить надА Сентябрю. Похоже она полгода не могла войти)) Дааа, с праздником 1 мая !
  • La Peregrina: Белочки! Урааа! Я смогла зайти! Всех с праздником! Скучаю очень по Вам!  :flightkiss:
  • Сентябрь:  :b796c: Какие бантики  :386: супер!
  • tatsli: ура! Сентябрик прорвалась  :b796c:
  • Сентябрь:  :116:
  • Лиса: tatsli:23: :puh16:
  • tatsli:  Игорь, с днём рождения!  :romashka7:  Счастья, здоровья и удачи!    Мира и добра!

Перейти в чатотопик

* Тестовые последние сообщения

Обновлять автоматически

Автор Тема: СТИВЕН ХОКИНГ: ЧЕЛОВЕЧЕСТВО ОБРЕЧЕНО, ЕСЛИ НЕ ПОКИНЕТ ЗЕМЛЮ  (Прочитано 686 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн Нина

  • Друг форума
  • Сообщений: 41757
  • Страна: ru
  • Рефералов: 5
  • Рейтинг: 116208
2
Реклама:
Be Smart - умный журнал!
СТИВЕН ХОКИНГ: ЧЕЛОВЕЧЕСТВО ОБРЕЧЕНО, ЕСЛИ НЕ ПОКИНЕТ ЗЕМЛЮ

Если человечество хочет выжить в долгосрочной перспективе, ему нужно найти способ покинуть планету Земля. Знакомые слова? В этот раз они прозвучали из уст известного астрофизика Стивена Хокинга. Возможно, у людей осталось меньше 200 лет, чтобы выяснить, как сбежать с родной планеты, заявил Хокинг в недавнем интервью Big Think. В противном случае нашему виду может грозить вымирание.

«Будет довольно сложно избежать катастрофы в ближайшие сто лет, не говоря уже о следующей тысяче или миллионе лет, — сказал Хокинг. — Наш единственный шанс долговременного выживания — не остаться на планете Земля, а распространиться в космосе».

Людей, застрявших на Земле, ждет риск двух типов катастроф, считает Хокинг. Первый тип мы можем создать самостоятельно, к примеру, вызывая кардинальное изменение климата или создав ядерное или биологическое оружие. Может стереть нас с лица Земли и ряд космических явлений. Астероид, столкнувшийся с Землей, убьет большую часть населения и оставит остальную часть планеты непригодной для жизни. Вспышка гамма-лучей сверхновой недалеко в Млечном Пути тоже может оказаться разрушительной для жизни на Земле.

Жизнь на Земле также может быть под угрозой внеземных цивилизаций, о чем любит говорить Хокинг. Опасные чужаки могут завладеть планетой и ее ресурсами для собственного использования. Для выживания нашего вида было бы безопаснее иметь запасной план в виде других миров.

«Человеческой расе не стоит держать все яйца в одной корзине, или на одной планете. Будем надеяться, что мы не уроним корзину, пока не перераспределим нагрузку».

На днях Хокинга спросили, какие недостатки людей он бы изменил, а какие добродетели улучшил, если было бы возможно. Он ответил: «Больше всего я бы хотел поправить в человеке его агрессию. Она давала преимущество при выживании в дни пещерных людей, чтобы получить больше еды, территории или партнера, с которым можно продолжить род, но сегодня она угрожает уничтожить нас всех».

В ноябре Элон Маск, генеральный директор SpaceX и Tesla, предупреждал, что шанс на то, что случится нечто опасное в результате появления машин с искусственным интеллектом, может выстрелить уже через пять лет. Ранее он утверждал, что развитие автономных думающих машин сродни «призыву демона». Выступая на симпозиуме AeroAstro Centennial в октябре, Маск описал искусственный интеллект как нашу «крупнейшую угрозу для выживания». Тогда он сказал: «Я думаю, нам стоит быть очень осторожными с искусственным интеллектом. Если бы я мог предположить, какой будет наша крупнейшая угроза для выживания, то это он. Нам нужно быть очень осторожными с искусственным интеллектом. Я все больше и больше склоняюсь к тому, что должен быть некий регулятивный надзор, возможно, на национальном и международном уровне, просто чтобы знать, что мы не делаем дурацких ошибок».

«С искусственным интеллектом мы вызываем демона. Вы знаете эти истории, в которых парень с пентаграммой и святой водой… он думал, что сможет контролировать демона, но нет».

Возвращаемся к Хокингу. «Качество, которое я хотел бы улучшить — это эмпатия, сочувствие. Она удерживает нас в состоянии мира и любви». Профессор также добавил, что космическая гонка для людей будет «страхованием жизни» и должна продолжаться.

«Отправка людей на Луну изменила будущее человеческой расы таким образом, о котором мы пока даже не подозреваем, — сказал он. — Она не решила наши насущные проблемы на планете Земля, но позволила нам взглянуть на них под другим углом, изнутри и снаружи».

«Я считаю, что долгосрочным будущим человеческой расы должен быть космос и что он представляет собой важную страховку жизни для нашего дальнейшего выживания, поскольку может препятствовать исчезновению человечества путем колонизации других планет».

В декабре 2014 года Хокинг выступил с другим предупреждением — что искусственный интеллект может означать конец человеческой расы. Выступая на мероприятии в Лондоне, физик рассказал BBC, что «развитие полноценного искусственного интеллекта может положить конец человеческой расе».

В январе группа ученых и предпринимателей, включая Элона Маска и Стивена Хокинга, подписала открытое письмо, обещающее положить начало исследованиям безопасности ИИ. Письмо предупреждает о том, что без каких-либо гарантий развитие умных машин может означать темное будущее для человечества.

Оффлайн Мерфи

  • Друг форума
  • Сообщений: 20897
  • Лучше умереть стоя, чем жить на коленях!!!
  • Рефералов: 0
  • Рейтинг: 52919
 Я уже начал паковать чюмоданы, осталось дождаться космического корабля на Марс.

Оффлайн Нина

  • Друг форума
  • Сообщений: 41757
  • Страна: ru
  • Рефералов: 5
  • Рейтинг: 116208
Я уже начал паковать чюмоданы, осталось дождаться космического корабля на Марс.
нам рано, а вот внукам стоит задуматься! :181: