Искусственный интеллект – страх, надежда или безразличие?
18.09.2025
Индустрия 4.0 и стремительный переход к пятой итерации этого процесса, обусловили динамичное развитие информационных и компьютерных технологий в различных сферах общества. Это привело не только к ускорению роста компьютерных возможностей, но и к снижению их стоимости и повышению доступности для всех слоёв населения. Кроме того, широкое распространение получает использование искусственного интеллекта (ИИ) для решения различных экономических и бизнес-задач.
Хотя искусственный интеллект известен с 1956 года, когда Джон Маккарти ввёл этот термин на Дартмутском семинаре, некоторые специалисты считают началом его активной и мощной фазы 2022–2024 годы, когда был зафиксирован взрывной рост появления ЦОД (центров обработки данных), разработаны и внедрены масштабируемые языковые модели и специализированные нейросети для различных сфер применения. Учитывая эту активность, возникают опасения по поводу любых рисков, которые ИИ может представлять для человечества. Однако многие по-прежнему убеждены в надуманности этой проблемы. Например, 97% владельцев бизнеса оптимистично настроены в отношении использования ИИ в своей деятельности, считая, что он будет способствовать развитию, но одновременно с этим, 43% из них обеспокоены чрезмерной зависимостью от этих инноваций. Кроме того, 77% сотрудников обеспокоены тем, что ИИ может привести к потере рабочих мест.
Автоматизация и внедрение ИИ уже повлияли на существование некоторых профессий. Например, роботизация заменила часть рабочих в автомобильном и электронном производстве. Внедрение электронных стоек самообслуживания сократило количество кассиров в магазинах и банках. Всё больше компаний предпочитают использовать чат-ботов вместо содержания полнофункциональных колл-центров. Автономные транспортные средства внедряются в грузоперевозки. ИИ также влияет на такие профессии, как финансовые аналитики, медицинские диагносты и создатели контента. ИИ активно используется для решения военных задач, что, с одной стороны, повышает эффективность и снижает стоимость их реализации. С другой стороны, это имеет серьёзные негативные последствия для гражданского населения, моральных устоев и международного сообщества. Речь идёт о рисках принятия решений об уничтожении целей без участия человека, использования кибероружия для взлома критически важной инфраструктуры, эскалации конфликтов посредством фейков и дезинформации. Некоторые даже предполагают, что не исключена инициация военных действий вследствие ошибок в алгоритмах нейронных сетей.
Существует достаточно тесная связь между уровнем цифровизации и бизнес-экосистемой, в результате чего формируются условия, благоприятствующие технологическому росту. Они обеспечивают технологическую основу для развития ИИ, что, в свою очередь, расширяет возможности аддитивных технологий, позволяя им снижать издержки, повышать гибкость и поддерживать высокое качество продукции. Возможности многообещающие, особенно в области накопления новых знаний. Интенсивное использование невозобновляемых ресурсов и нарушенные технологические циклы приводят к разрушению экосистем планеты. Однако внедрение ИИ при переходе к возобновляемым ресурсам и замкнутым циклам может обеспечить устойчивость экономической деятельности и способствовать успешной трансформации традиционной экономики в цифровую.
Следует также отметить рост использования ИИ для киберпреступности. Например, поддельные аккаунты, визуальные и голосовые имитации используются для мошеннических (либо вводящих в заблуждение) действий якобы со стороны влиятельных лиц, политиков и бизнесменов. Эта технология также может использоваться для создания «мёртвых душ» на предприятиях с целью получения денежных выплат. Алгоритмы также могут влиять на работу криптовалютных бирж, манипулируя ценами. Таким образом, уже определённо следует предположить, что использование ИИ влечёт за собой немалые риски. Сегодня сложно предсказать, какими будут его последствия через 20–30 лет и как они будут ощущаться рядовыми пользователями.
Сегодня молодые люди 16-30 лет находятся в начале своей карьеры, а значит в основной зоне риска. Возможно, сделанный ими выбор повлияет на их будущее, где ИИ может представлять потенциальную угрозу: потерю работы, смену специальности, принятие ошибочных решений, киберугрозы и т. д. Но сейчас молодые люди по-разному воспринимают риски, связанные с широким распространением искусственного интеллекта. Некоторые испытывают страх, другие смотрят в будущее с надеждой, а есть такие, которым это вообще безразлично.
Сейчас специалисты выделяют три основные угрозы, исходящие от ИИ: возросшая способность контролировать социум и манипулировать людьми, усовершенствование и дегуманизация смертоносного оружия, а также обесценивание/высвобождение человеческого труда. На данный момент можно уже фиксировать два варианта воздействия: неконтролируемое замещение искусственным интеллектом процессов принятия решений, некоторых административных/производственных операций, а также увольнение людей в результате полной автоматизации. Различные экономические, социальные и политические условия создают основу для «утечки мозгов» во многих странах, вынуждая правительства внедрять ИИ для решения проблемы нехватки рабочей силы. С одной стороны, это снижает издержки компаний и решает кадровую проблему, но с другой стороны, может усугубить ситуацию, когда роботы принимают неверные решения из-за ошибок в своих алгоритмах.
В настоящее время глобальная система борьбы с киберугрозами является весьма нестабильной, что является следствием разного уровня цифровизации стран и создаёт благоприятный фон для растущего использования ИИ для международной киберпреступности. Использование инновационных инструментов с использованием ботнетов расширило возможности злоумышленников, начиная от атак на инфраструктуру и заканчивая кражей личных данных и финансовым мошенничеством. Кроме того, с помощью мощных нейросетей киберпреступники могут создавать более убедительные фишинговые атаки и адаптировать вредоносное ПО к уязвимостям конкретных систем, что значительно увеличивает угрозы безопасности.
Текущее положение дел заставляет задуматься о том, что произойдёт в будущем: смогут ли роботы заменить людей? Смогут ли они обрести сознание? Приведёт ли автоматизация к углублению социального неравенства? По данным недавнего масштабного исследования, сейчас в большинстве своём (чуть более 65%), молодые люди относятся к нулевому латентному профилю, который характеризуется прагматизмом в восприятии угроз, исходящих от самосознания ИИ, принятия решений или мятежа с его стороны. Они осознают отдельные виды рисков ИИ, но не переоценивают их, даже учитывая то, что большинство из них видели фильмы про Терминатора. Очень малая часть молодёжи (27%) демонстрирует довольно скептическое отношение к угрозам со стороны ИИ, которые не верят, что возможности машинного интеллекта позволят ему превзойти человека в различных областях, поскольку считают развитие технологий недостаточным для этого. И лишь самую малочисленную группу (7,7%) составляют молодые люди, которых характеризуют осторожное отношение к развитию ИИ, высокая степень обеспокоенности профессиональными, социальными и этическими рисками, а также приверженность строгому контролю в целях регулирования этих вопросов.
Что характерно, почти все опрошенные надеются на защиту со стороны государства посредством принятия соответствующих мер государственного регулирования, которые снижают риски для пользователей и не снижают уровень инноваций в технологиях. Тот факт, что среди молодёжи всё-таки существует определённый уровень недоверия и насторожённости в отношении ИИ, говорит о том, что они испытывают определённую тревогу за будущее. Учитывая мнение молодёжи, компании, занимающиеся разработкой, могут совершенствовать политику ответственного использования ИИ, уделяя особое внимание внедрению более активных мер безопасности, ограничению алгоритмов обучения, повышению стоимости платного контента и т. д.
Читать далее:
Как поступить в театральный вуз на актерское отделение: полное руководство
Как повысить иммунитет
Современные решения в пластике груди.
Лабиопластика и отопластика в Киеве: современный взгляд на пластическую хирургию
Анализы на глюкозу ребенку
|