ГОРОД БУДУЩЕГО: НОВЫЕ ТИПЫ УГРОЗ В УСЛОВИЯХ ТОТАЛЬНОЙ АВТОМАТИЗАЦИИ

ГОРОД БУДУЩЕГО: НОВЫЕ ТИПЫ УГРОЗ В УСЛОВИЯХ ТОТАЛЬНОЙ АВТОМАТИЗАЦИИ

Авторы публикации

Журнал

Журнал «Научный лидер» выпуск # 47 (248), Ноябрь ‘25

Поделиться

Статья посвящена анализу новых угроз безопасности жизнедеятельности в условиях тотальной автоматизации городской среды. Рассматриваются киберфизические риски автономного транспорта и систем доставки, социально-психологические последствия цифровизации и этические проблемы распределения ответственности. Доказывается необходимость междисциплинарного подхода для создания безопасной и человеко-ориентированной городской среды будущего.

Современный мир стремительно движется к концепции "умных городов", где информационно-коммуникационные технологии (ИКТ) охватывают все аспекты городской среды, призванные обеспечить беспрецедентную эффективность, комфорт и устойчивость. Однако за этим технологическим прогрессом могут скрываться довольно серьезные проблемы, способные подорвать саму основу безопасности жизнедеятельности человека. По мере того, как автоматизированные системы становятся неотъемлемой частью городской инфраструктуры, возникают принципиально новые уязвимости, требующие пересмотра традиционных подходов к безопасности.

Центральное место в системе новых угроз занимают киберфизические риски, возникающие на стыке цифрового и физического мира. Сегодня, большинство транспортных средств содержат десятки компьютеров, которые часто связаны друг с другом и могут передавать информацию внешнему миру беспроводным путём [4, c. 2]. Поэтому особую актуальность приобретают вопросы безопасности автономного транспорта и систем доставки. Автономные автомобили, управляемые сложными алгоритмами, представляют собой не просто средства передвижения, а мобильные киберфизические системы, уязвимые для внешнего вмешательства. Манипуляция данными сенсоров или взлом систем управления может привести к созданию опасных дорожных ситуаций, организации целенаправленных столкновений или блокировке ключевых транспортных линий. Например, в 2011 году Стивен Чековей и его коллеги разработали удалённую атаку на полностью стандартный автомобиль Chevrolet Impala 2009 года выпуска, которая позволяла злоумышленнику дистанционно управлять всеми критическими системами автомобиля – включая тормоза, двигатель, приборную панель, замки дверей и звуковой сигнал [1]. Аналогичные риски характерны и для устройств автоматизированной доставки — от дронов-курьеров до наземных роботов-доставщиков. Поскольку этим роботам приходится делить своё пространство с другими транспортными средствами или движущимися людьми, их предпочтительными зонами работы являются тротуары и районы с интенсивным движением [3, c. 2]. Это может не только нарушить работу сервисов, но и создать прямую физическую опасность для пешеходов в случае потери управления и падения дронов или столкновения наземных роботов с людьми.

Не менее сложными представляются проблемы, связанные с координацией взаимодействия автономных систем в городской среде. Сбои в алгоритмах распределения дорожного движения, нарушения работы светофорных систем, управляемых искусственным интеллектом, – все это может стать причиной для возникновения каскадных сбоев, когда локальная неисправность вызывает цепную реакцию нарушений в смежных системах. Сложность прогнозирования поведения автономных агентов в условиях неопределенности и быстро меняющейся городской среды значительно усугубляет эти риски.

Параллельно с техническими вызовами нарастают социально-психологические угрозы. Тотальная автоматизация ведет к углублению цифрового неравенства, создавая разрыв между технологически продвинутыми гражданами и теми, кто не способен адаптироваться к новым реалиям. Это расслоение проявляется не только в дифференцированном доступе к сервисам, но и в формировании принципиально разных уровней защищенности – как цифровой, так и физической. Одновременно происходит эрозия приватности: сети датчиков, системы компьютерного зрения и повсеместный сбор поведенческих данных создают беспрецедентные возможности для тотального контроля и манипуляции общественным сознанием.

С психологической точки зрения, тотальная автоматизация приводит к деградации когнитивных способностей и практических навыков: люди теряют способность действовать самостоятельно при сбоях систем. Чрезмерная автоматизация особенно опасна в критических сферах (военные технологии, медицина), где возможна полная утрата человеческого контроля [5, с. 3]. В чрезвычайных ситуациях это резко снижает шансы на выживание, поскольку скорость и адекватность реакции человека становятся решающими.

Этический аспект автоматизации проявляется в проблеме распределения ответственности за решения, принимаемые автономными системами. Дорожные инциденты с участием беспилотных автомобилей, ошибки автоматизированных медицинских диагностических комплексов, сбои в работе систем распределения ресурсов – все это ставит сложные вопросы о правовом статусе решений искусственного интеллекта и границах ответственности разработчиков, операторов и пользователей. Другими словами, если алгоритм машинного обучения выдаёт ошибочные, дискриминационные или несправедливые результаты, то ответственность за это лежит не на машине, а на тех, кто организовывал базу данных и настраивал алгоритм [2, c. 11].

В заключение следует подчеркнуть, что безопасность жизнедеятельности в условиях тотальной автоматизации требует принципиально нового, междисциплинарного подхода. Технические решения должны разрабатываться в тесной связи с социальными, психологическими и правовыми аспектами. Необходима разработка адаптивных систем безопасности, способных развиваться вместе с технологиями, и формирование новой культуры безопасности, учитывающей взаимосвязь цифровых и физических угроз. Комплексное понимание этих вызовов позволит создать действительно устойчивую и человеко-ориентированную городскую среду будущего, где технологический прогресс будет служить укреплению, а не ослаблению безопасности граждан.

Список литературы

  1. A review of smart vehicles in smart cities: Dangers, impacts, and the threat landscape [Электронный ресурс] / Vehicular Communications. – 2025. – 15 с. – URL: https://www.sciencedirect.com/science/article/pii/S2214209624001463 (дата обращения: 24.11.2025)
  2. Алгоритмическая дискриминация и защита неприкосновенности частной жизни [Электронный ресурс] / Journal of Digital Technologies and Law. – 2023. – 34 с. – URL: https://cyberleninka.ru/article/n/algoritmicheskaya-diskriminatsiya-i-zaschita-neprikosnovennosti-chastnoy-zhizni (дата обращения: 24.11.2025)
  3. Перспективы правового регулирования использования роботов-доставщиков [Электронный ресурс] / — 2023. — 12 с. — URL: https://cyberleninka.ru/article/n/perspektivy-pravovogo-regulirovaniya-ispolzovaniya-robotov-dostavschchikov (дата обращения: 24.11.2025)
  4. Угрозы информационной безопасности автоматизированных систем современных автомобилей [Электронный ресурс] / — 2020. — 3 с. — URL: https://cyberleninka.ru/article/n/ugrozy-informatsionnoy-bezopasnosti-avtomatizirovannyh-sistem-sovremennyh-avtomobiley (дата обращения: 24.11.2025)
  5. Этика автоматизации: где проходит граница? [Электронный ресурс] / – 2023. – 13 с. – URL: https://cyberleninka.ru/article/n/etika-avtomatizatsii-gde-prohodit-granitsa (дата обращения: 24.11.2025)
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Осталось 5 дней до окончания
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее