Войти Регистрация

Войти

Искусственный интеллект - есть ли опасность?

Искусственный-интеллект

В следующем году на базе Кембриджского университета будет создан "Центр изучения глобальных рисков", одной из целей которого является определение принципов разработки "безопасного" искусственного интеллекта.

В программном заявлении основатели центра утверждают: "Многие ученые обеспокоены тем, что в результате развития человеческих технологий скоро возникнут новые риски, ставящие под вопрос существование нашего вида в целом". В качестве подобных опасностей в центре выделяют искусственный интеллект, климатические изменения, биотехнологии и нанотехнологии.

Глава создаваемого центра профессор философии Хью Прайс опубликовал в августе 2012 года статью "ИИ: сможем ли мы удержать его в коробке?", в которой призвал серьезно рассмотреть возможные угрозы: "Мы думаем, что в качестве первого правильного шага стоило бы прекратить относиться к искусственному интеллекту как к предмету научной фантастики и начать думать о нем как о части реальности, с которой мы или наши потомки могут рано или поздно столкнуться". Философ считает, что как только мы поставим такую проблему, то будет необходимо инициировать серьезные исследования того, как сделать разработку интеллектуальных машин наиболее безопасной с точки зрения будущего человечества.

Основной причиной опасности «ультра-умных» машин создатели проекта видят принципиальное отличие их предполагаемого интеллекта от человеческого. Все ценности – такие, как «любовь, счастье и даже выживание», важны для нас, потому что у нас есть определенная эволюционная история – нет ни одной причины полагать, что машины будут разделять их с нами. По словам Прайса, машины, возможно, будут просто безразличны к нам, что повлечет за собой катастрофические последствия.

Скорое создание интеллектуальных машин, которые будут "умнее" человека, предрекают, начиная с середины XX века. Аллен Ньюэлл и Герберт Саймон в 50-е, Марвин Минский в 60-70-е, и многие другие в более позднее время предсказывали решение проблемы разработки ИИ в течение 10-20 лет, начиная с момента заявления. Один из наиболее известных на сегодняшний момент футурологов Рэй Курцвейл предсказывает, что к 2029 году компьютер сможет пройти тест Тьюринга, что, по его мнению, будет доказывать у него наличия разума. Курцвейл в 2009 году основал Университет Сингулярности с целью изучении последствий "технологической сингулярности" - момента, когда скорость развития технологий достигнет немыслимых значений.

Безусловно, искусственный интеллект и гипотетические последствия его выхода из-под контроля человека являются одной из любимых тем современной философии. Однако большинство действующих исследователей в этой области на данный момент воздерживаются от каких-либо громких прогнозов о возможности серьезных прорывов в ближайшем будущем - проблемы сегодня скорее заключаются не в необходимых мощностях, а в отсутствии новых подходов.

Читайте так же:
Робот-гепард преодолел новый рубеж скорости
Робот-гепард преодолел новый рубеж скорости
Специалистам Массачусетского технологического института удалось улуч
Роботы – шпионы или убийцы?
Роботы – шпионы или убийцы?
Среди роботов-разведчиков набирает силу тенденция оснащения их стрел
СКАЙНЕТ - УЖЕ БЛИЗКО...
СКАЙНЕТ - УЖЕ БЛИЗКО...
США призывают под ружье боевых роботов. Пентагон запланировал истрат
Российские роботы будут в рядах армии уже к 2025 году
Российские роботы будут в рядах армии уже к 2025 году
Боевые роботы, которые к 2020 году заменят почти треть всех военносл

Добавить комментарий

Войти через социальные сети

           


Защитный код
Обновить

Случайные фразы

Последнее на форуме

  • Нет сообщений для показа

Наш сайт отлично себя чувствует на этом хостинге*

Комментарии: последние

  • Молот
    ИЗЫДИ БЕС ИЗ РОССИИ!!! Молитва изгоняющего дьявола. О Боже, я взываю к святому имени Твоему, молю о милосердии Твоем!

    Подробнее...

     
  • Cyprian Danielewski
    If you want to take a great deal from this piece of writing then you have to apply these methods to your won blog.

    Подробнее...

     
  • Wawrzyniec Figura
    Fantastic goods from you, man. I've understand your stuff previous to and you're just extremely fantastic. I actually ...

    Подробнее...

     
  • Herman Juszczak
    I'm extremely pleased to discover this site. I want to to thank you for your time for this wonderful read!! I definitely ...

    Подробнее...

     
  • Zoe Byczkowski
    I'd like to find out more? I'd want to find out more details.

    Подробнее...

     
  • Radoslaw Szelag
    What a material of un-ambiguity and preserveness of precious know-how regarding unexpected feelings.

    Подробнее...

подпишись на RSS

Топ лучших игр Руннета

  Каталог Ресурсов Интернет Рейтинг@Mail.ru