Финансовое обозрение
Воскресенье, 22 февраля, 2026
  • Украина и мир
  • Бизнес
  • Экономика
  • Финансы
  • Криптовалюта
  • Политика
  • Технологии
  • Сервисы
    • Курсы валют
    • Налоговые инспекции
  • ru Русский
    • ar العربية
    • zh-CN 简体中文
    • cs Čeština‎
    • nl Nederlands
    • en English
    • fr Français
    • de Deutsch
    • it Italiano
    • lt Lietuvių kalba
    • pt Português
    • ru Русский
    • es Español
    • uk Українська
No Result
View All Result
  • Украина и мир
  • Бизнес
  • Экономика
  • Финансы
  • Криптовалюта
  • Политика
  • Технологии
  • Сервисы
    • Курсы валют
    • Налоговые инспекции
  • ru Русский
    • ar العربية
    • zh-CN 简体中文
    • cs Čeština‎
    • nl Nederlands
    • en English
    • fr Français
    • de Deutsch
    • it Italiano
    • lt Lietuvių kalba
    • pt Português
    • ru Русский
    • es Español
    • uk Українська
No Result
View All Result
Finoboz.net
No Result
View All Result

Чем опасен искусственный интеллект

18.06.2020
A A
0
29
SHARES
484
VIEWS
FacebookTwitter

Стивен Хокинг, Илон Маск и другие ученые и изобретатели считают искусственный интеллект угрозой жизни на Земле. Директор Института будущего человечества в Оксфорде и автор бестселлера Superintelligence: Paths, Dangers, Strategies Ник Бостром рассказал Esquire, почему сверхразум может уничтожить людей всего за одну секунду.

В узких областях возможности искусственного интеллекта уже намного превышают человеческие: Гарри Каспаров, чемпион мира по шахматам, проиграл программе Deep Blue в далеком 1997 году. Поисковые запросы, распознавание речи, логистика — в этом специализированные системы лучше нас. Но на самом деле они пока не обладают мышлением как таковым, и никто сейчас не знает, когда будет изобретен настоящий искусственный интеллект.

Большинство ученых сходятся во мнении, что вероятность его появления до середины XXI века — 50%. Прогноз очень абстрактный, и очевидно, что произойти это может как намного раньше, так и гораздо позже. В 1940-х годах, когда были созданы первые компьютеры, ученые предсказывали появление машин, превосходящих интеллект человека, к 1960-м. Прогноз не сбылся, но уже тогда математик Ирвинг Джон Гуд, работавший во время Второй Мировой войны над взломом немецких шифров в команде Алана Тьюринга, предупреждал: «Сверхумная машина — последнее изобретение, которое предстоит сделать человечеству, при условии, конечно, что эта машина будет нас слушаться и укажет, как ее контролировать». Другими словами, первый же искусственный интеллект, созданный людьми, с большой вероятностью будет стремиться к неограниченному овладению ресурсами, а его цели никак не будут связаны с благом человечества. Если учесть, что люди состоят из полезных ресурсов — таких, например, как организованные в определенном порядке молекулы — и сами зависят от множества земных ресурсов, одним из наиболее вероятных последствий появления искусственного интеллекта станет полное исчезновение человечества. Представьте, что перед носителем сверхразума зачем-то встала задача максимально увеличить производство скрепок для бумаги. В этой связи у него будут как минимум две причины уничтожить человечество: чтобы мы не смогли ему каким-то образом помешать и чтобы использовать наши тела как сырье.

Другие новости

Украинцам, которые зарегистрируют на себя «российские Starlink», грозит пожизненное заключение

09.02.2026

Рецензия на фильм «Twisted»

09.02.2026

В Голливуде любят изображать носителей искусственного интеллекта на службе у диктаторов, но мне кажется, вероятность этого крайней мала: он не будет делать никаких различий между людьми, и репрессивные правительства такие же потенциальные его жертвы, как угнетаемое ими большинство. Другой голливудский штамп — эпическая битва отряда храбрецов с армией роботов. Почему-то Терминатор и ему подобные носители сверхразума никогда не могут осуществить свой зловещий замысел мгновенно, им надо подождать, пока раскрутится захватывающий сюжет. А там навстречу обязательно выйдет горстка героев, каждый из которых обладает уникальным навыком, и вместе они уничтожат безупречный, на первый взгляд, механизм, в котором обнаружится роковой изъян. Вынужден разочаровать: в реальной жизни гораздо более вероятным представляется сценарий, при котором мы все умрем за одну секунду, а Земля превратится в один большой компьютер, миллиарды лет занятый ему одному понятными вычислениями.

Уже сейчас некоторые системы, у которых еще нет своей воли или способности планировать действия, практически невозможно выключить. Где находится кнопка выключения интернета, например? Я уж не говорю о том, что носитель искусственного интеллекта наверняка предусмотрит попытку его отключения и заранее предпримет необходимые меры безопасности. И уж точно он сможет найти методы влияния на физический мир, чтобы манипулировать волей людей, заставить их работать на себя или предоставить доступ к созданию собственной инфраструктуры.

Не стоит ли нам прекратить разработку искусственного интеллекта в таком случае? К сожалению, это риторический вопрос. Не существует одной организации, которая бы целенаправленно вела эту работу и подчинялась какому-то правительству. Наоборот, по всему миру разбросано множество частных компаний и лабораторий, огромное количество людей занимаются программным обеспечением, нейробиологией, статистикой, дизайном интерфейсов — их исследования тем или иным образом вносят свой вклад в создание искусственного интеллекта. В этом смысле человечество похоже на ребенка, играющего с бомбой — вернее, это целый детский сад, и в любой момент какой-нибудь придурок может нажать не на ту кнопку. Так что когда вы читаете о новых открытиях в области интеллектуальных систем, страх здесь более адекватная реакция, чем эйфория от открывающихся перспектив. Но правильнее всего в данном случае как можно скорее сосредоточиться на задачах, которые помогут уменьшить риски, исходящие от сверхразума, еще до его появления. Одним из возможных решений является создание профессионального сообщества, которое объединило бы бизнесменов, ученых и исследователей, а также направило технологические исследования в безопасное русло и выработало средства контроля над их результатами.

За свою историю человечество не научилось управлять своим будущим. Разные группы людей всегда стремились к достижению собственных целей, часто вступая конфликт с друг с другом. Глобальное технологическое и экономическое развитие до сих пор не является плодом сотрудничества и стратегического планирования, и едва ли не последнее, что оно учитывает — это судьба человечества. Представьте себе школьный автобус, поднимающийся в гору и набитый разыгравшимися детьми. Это человечество. Но если посмотреть на место водителя, мы увидим, что оно пусто. Совершая новое открытие, мы каждый раз берем из корзины мяч и кидаем его о стену — пока что это были только белые мячи и серые мячи, но однажды может попасться и черный мяч, который, ударившись о стену, вызовет катастрофу. Смысл в том, что у нас не будет шанса спрятать черный мяч обратно в корзину: как только открытие совершается, его невозможно отменить.

Источник: esquire.ru

Share12Tweet7Share1ShareShare

Читайте также

Технологии

Украинцам, которые зарегистрируют на себя «российские Starlink», грозит пожизненное заключение

09.02.2026

Враг пытается обойти блокировку Starlink после введения обязательной верификации терминалов в Украине. Минобороны предупредило украинцев об уголовной ответственности за регистрацию...

Read moreDetails

Рецензия на фильм «Twisted»

09.02.2026

Реальная цена батареи iPhone 17 Pro в 10 раз меньше, чем взимает Apple за замену

08.02.2026

Telegram разрешил добавлять сторис украинцам без Premium-аккаунтов

08.02.2026
Next Post
В Минздраве оценили шансы возвращения жесткого карантина в Украине

В Минздраве оценили шансы возвращения жесткого карантина в Украине

Присоединяйся к нам!

Другие новости

Масаж для чоловіка — приємно, розслаблююче та корисно

Масаж для чоловіка — приємно, розслаблююче та корисно

10.02.2026
Поезда «Укрзализныци» меняют маршруты: в чем причина и куда теперь следуют

Поезда «Укрзализныци» меняют маршруты: в чем причина и куда теперь следуют

09.02.2026
Зеленский объяснил цель ударов по энергетике России

Зеленский объяснил цель ударов по энергетике России

09.02.2026
Магазины Zara закрываются в Днепре. Одесса и Харьков – «под вопросом» – NV

Магазины Zara закрываются в Днепре. Одесса и Харьков – «под вопросом» – NV

09.02.2026
Уровень запасов газа в ПХГ Украины достаточен для прохождения зимы – экс-министр энергетики

Уровень запасов газа в ПХГ Украины достаточен для прохождения зимы – экс-министр энергетики

09.02.2026

Мы в Twitter

Разделы сайта

  • Бизнес
  • Криптовалюта
  • Политика
  • Технологии
  • Украина и мир
  • Финансы
  • Экономика

Популярное

No Content Available

Главное

No Content Available
  • О проекте
  • Политика конфиденциальности
  • Реклама
  • Sitemap
  • Контакти
Редакция: finoboz.net@gmail.com
Реклама: digestmediaholding@gmail.com

Использование любых материалов, опубликованных на сайте, допускается исключительно при соблюдении обязательного условия — наличии корректной и активной ссылки на ресурс Finoboz.net. Данное правило распространяется на все виды контента, включая новостные заметки, аналитические обзоры, авторские колонки, экспертные комментарии, мультимедийные публикации и любые другие материалы, размещённые на платформе. Указание источника является обязательным вне зависимости от способа или формата последующего распространения информации.

Для интернет-СМИ, тематических порталов, новостных агрегаторов и других онлайн-ресурсов гиперссылка должна быть открытой, доступной для индексирования поисковыми системами и не содержать технических ограничений, препятствующих корректному переходу. Рекомендуется размещать ссылку непосредственно в подзаголовке материала, либо в его первом абзаце — это обеспечивает прозрачность происхождения информации, корректную атрибуцию и соблюдение стандартов этичного цитирования.

Редакция сайта Finoboz.net оставляет за собой право не разделять взгляды, мнения или позиции, которые выражены авторами статей, аналитических публикаций или других материалов. Ответственность за содержание републикуемых текстов, их точность, оценочные суждения и возможные последствия использования представленной информации редакция не несёт. Все авторские материалы публикуются под ответственность их создателей, а редакция выступает лишь платформой для размещения контента.

© 2016-2026 Финансовые новости. All Rights reserved

No Result
View All Result
  • Украина и мир
  • Бизнес
  • Экономика
  • Финансы
  • Криптовалюта
  • Политика
  • Технологии
  • Сервисы
    • Курсы валют
    • Налоговые инспекции

Использование любых материалов, опубликованных на сайте, допускается исключительно при соблюдении обязательного условия — наличии корректной и активной ссылки на ресурс Finoboz.net. Данное правило распространяется на все виды контента, включая новостные заметки, аналитические обзоры, авторские колонки, экспертные комментарии, мультимедийные публикации и любые другие материалы, размещённые на платформе. Указание источника является обязательным вне зависимости от способа или формата последующего распространения информации.

Для интернет-СМИ, тематических порталов, новостных агрегаторов и других онлайн-ресурсов гиперссылка должна быть открытой, доступной для индексирования поисковыми системами и не содержать технических ограничений, препятствующих корректному переходу. Рекомендуется размещать ссылку непосредственно в подзаголовке материала, либо в его первом абзаце — это обеспечивает прозрачность происхождения информации, корректную атрибуцию и соблюдение стандартов этичного цитирования.

Редакция сайта Finoboz.net оставляет за собой право не разделять взгляды, мнения или позиции, которые выражены авторами статей, аналитических публикаций или других материалов. Ответственность за содержание републикуемых текстов, их точность, оценочные суждения и возможные последствия использования представленной информации редакция не несёт. Все авторские материалы публикуются под ответственность их создателей, а редакция выступает лишь платформой для размещения контента.

© 2016-2026 Финансовые новости. All Rights reserved