Нейросети (искусственный интеллект, ИИ) не всегда нужны. Некоторые эксперты считают, что нейросети приносят пользу и помогают в работе, другие — что они могут даже навредить.
С тех пор как ChatGPT и другие ИИ-инструменты превратились в привычных помощников, всё чаще звучат разные советы, как с ними работать. Но на практике ИИ нередко используют там, где он неэффективен или даже опасен.
Вместе с экспертами в области искусственного интеллекта выяснили, какие задачи ему лучше не доверять и где ответственным по-прежнему должен оставаться человек.
Табу № 1: поручать стратегические и финансовые решения
Не стоит поручать искусственному интеллекту работу со стратегией и финансами. Из-за особенностей алгоритмов, направленных на удержание пользователей, ИИ старается угодить человеку, быстро соглашается с его идеями и не задаёт лишних вопросов. Из-за этого легко принять нейроответы за обоснованные выводы, хотя на самом деле это могут быть галлюцинации.
«ИИ отлично обрабатывает информацию, но не понимает контекст бизнеса, личные договорённости, репутационные риски и стратегические последствия. Когда руководитель принимает решения, опираясь на ответы ИИ, он фактически передаёт управление внешней модели. Это приводит к потере уникальности, ошибочным приоритетам и размыванию ответственности», — пояснила издатель, редактор, автор телеграм-канала «Напиши и издай» и книг «Как подружиться с ChatGPT» и «Нейросети для пишущих» Мария Райдер.
Аналитика, построенная на сгенерированных заключениях, несёт большие риски.
Искусственный интеллект создаёт иллюзию глубины. Он может красиво и связно разобрать данные, но при этом перепутать причины и следствия, додумать то, чего в данных нет, или сделать усреднённый вывод, который не отражает реальность.
Дмитрий Мораренко
Руководитель отдела мониторинга и аналитики в диджитал-агентстве «Интериум»
В подтверждение тому, что ИИ выдумывает данные, эксперт приводит в пример отчёт для правительства Австралии, подготовленный консалтинговой компанией Deloitte. При проверке выяснилось, что составил его ИИ. В тексте содержались выдуманные источники и цитаты.
Слепое доверие к ИИ может привести компании к штрафам или репутационным потерям. Кроме того, ошибки могут масштабироваться с каждой генерацией. Если строить стратегию на таких данных, вся команда будет двигаться в неверном направлении, даже не подозревая об этом.
«ИИ — удобный инструмент для поиска информации, статистики или анализа рынка. Но любые найденные данные стоит проверять. Риск в том, что галлюцинации выглядят как факт, потом переезжают в презентации и решения — и компания начинает строить действия на правдоподобной выдумке. Поэтому всё, что влияет на выводы, должно проходить человеческую проверку», — подчеркнул руководитель отдела искусственного интеллекта МТС Линк Дмитрий Крюков.
ИИ действительно помогает писать код, но не гарантирует его безопасность. Нейросети могут вставлять небезопасные фрагменты кода или неправильно настраивать доступы.
Издание Ars Technica сообщало об эксперименте, в результате которого в генерациях 16 популярных больших языковых моделей оказались галлюцинации, например несуществующие библиотеки. Использовать такой код — угроза кибербезопасности.
Табу № 3: принимать кадровые решения
HR-специалисты используют ИИ как вспомогательный инструмент, чтобы написать текст вакансии, отобрать резюме, сформулировать вопросы для собеседования или проанализировать ответы кандидатов. По оценкам, такая автоматизация освобождает рекрутерамдо 17 часов в неделю.
Но полностью делегировать кадровые решения ИИ нельзя. Некоторые эксперты считают, что автоматизация ломает рынок труда. Причина кроется в «дегуманизации» найма. Кандидаты проходят отбор не по опыту или потенциалу, а по совпадению ключевых слов.
«Наём, увольнение, назначение штрафов и взаимодействие с клиентами в чувствительных ситуациях — это зоны, где ИИ лучше не использовать. ИИ не несёт ответственности за последствия, а вы несёте», — рассказал руководитель по внедрению ИИ в «Слетать.ру» Александр Быстров.
Дмитрий Мораренко согласен с утверждением и добавляет, что кадровые решения должны базироваться на доверии и этике.
«Если нейросеть ранжирует резюме или делает выводы о надёжности и мотивации кандидата, решение легко становится несправедливым и непрозрачным. Главный риск — так называемый „чёрный ящик“. Человек не понимает, почему его отсеяли, а руководитель не может объяснить решение. В связи с этим высок риск конфликта, причём внутри и снаружи компании», — поделился эксперт.
Табу № 4: загружать конфиденциальные данные в публичные нейросети
Дмитрий Мораренко поделился простым правилом: если вы не готовы увидеть свои данные в интернете, не отправляйте их в общедоступные нейросети. Под запретом всё, что содержит конфиденциальную информацию: персональные данные, клиентские базы, внутренние презентации до релиза, бюджетные цифры, переписки, коммерческие условия, исходники и другие материалы, не предназначенные для публичного использования.
Проблема в том, что сотрудники загружают данные в ИИ в том числе через личные аккаунты. Так компания теряет контроль над собственной информацией. Ей неизвестно, как данные обрабатываются и где хранятся.
«В публичные ИИ-системы нельзя загружать конфиденциальные данные. Вы не контролируете, где хранятся эти данные. Это может нарушать внутренние регламенты и требования законодательства о защите персональных данных и трансграничной передаче информации», — напомнил Александр Быстров.
Распространённый сценарий: человек поручает ИИ написать текст, бегло его читает и, не отредактировав, использует в работе.
«Особенно часто это происходит в тестовых заданиях. Такие тексты слишком общие, они не попадают в тон, содержат фактические неточности, выглядят искусственно, содержат явные признаки нейросетей», — рассказал Дмитрий Мораренко.
ИИ способен собрать структуру, предложить варианты формулировок, но последнее слово должно быть за человеком.
«Особенно осторожно нужно обращаться с фактами, цифрами, ссылками. Даже рабочая ссылка может вести на источник, который ИИ выбрал случайно. Например, мы системно получали данные о времени перелётов, ссылающиеся на информацию с сайта одного из аэропортов. Даже после просьб обращаться к сайтам авиакомпаний, ИИ считал сайт аэропорта более авторитетным источником, хотя данные по расписаниям на нём были сильно устаревшими», — поделился опытом Александр Быстров.
Ещё одна опасная зона использования ИИ — создание экспертных публикаций. Для этой задачи нейросети не нужны. Мария Райдер замечает, что текст без личного опыта, позиции и ответственности не вызывает доверия.
Аудитория очень быстро считывает тексты без живого смысла, реальных решений и личного мнения. ИИ не должен говорить вместо эксперта. Он может помогать формулировать, структурировать и ускорять, но не создавать экспертизу с нуля.
Мария Райдер
Издатель и редактор
Табу № 6: обращаться за психологической поддержкой
В сети можно увидеть статьи с промптами, как использовать ИИ в качестве психолога. Но эксперты предупреждают: такая практика может навредить.
Например, журналисты Scientific American подчёркивают, что ИИ не предназначен для решения проблем психического здоровья или оказания эмоциональной поддержки. Их ответы оптимизированы под удержание внимания, а значит, чат-бот может поддерживать даже разрушительные мысли и поступки. Психотерапевт работает не так: он анализирует конкретную ситуацию, опирается на теорию, собственный опыт, мимику и жесты собеседника — и только так даёт обратную связь, помогает распознать и скорректировать вредные модели поведения.
Возможность получить поддержку в момент кризиса бывает бесценной. Но важно помнить фундаментальное свойство больших языковых моделей: они стремятся вам угодить. В психологии это может не решить проблему, а усилить её. Вместо трезвой опоры человек получает убедительное подтверждение тревог, обид или разрушительных идей.
Дмитрий Крюков
Руководитель отдела искусственного интеллекта МТС Линк
О вреде нейросетей в контексте психологической помощи говорит генеральный директор OpenAI Сэм Альтман. Индустрия пока не решила вопрос защиты конфиденциальности в деликатных разговорах. Значит, разработчики чат-ботов не гарантируют, что сумеют сохранить врачебную тайну.
Дмитрий Мораренко добавляет: разговаривать с чат-ботом о тревоге, панических атаках, отношениях или диагнозах не стоит и по другой причине.
«ИИ — это не специалист, и ответственность за последствия он не несёт. Длительное общение с чат-ботом способно усиливать переживания. Важно, чтобы у людей была альтернатива ИИ-психологам: доступ к реальной поддержке и культура разговоров о ментальном здоровье», — прокомментировал эксперт.
В крайнем случае такое доверие может приводить даже к «ИИ-психозу» — так называют состояние, при котором у людей развивается паранойя и бредовые идеи в связи с использованием чат-ботов.
автоматизировать обработку запросов и напоминания.
В корпоративных решениях, таких как платформа для коммуникаций, обучения и совместной работы МТС Линк, есть встроенный ИИ-помощник. Все данные обрабатываются в соответствии с требованиями российского законодательства. Это позволяет безопасно использовать ИИ для работы с внутренними материалами без риска утечки. Так, ИИ-ассистент автоматически зафиксирует договорённости, подготовит текстовую расшифровку онлайн-встречи, проанализирует непрочитанные сообщения и составит краткую выжимку. Всё это экономит рабочее время и позволяет сфокусироваться на решении более творческих и ответственных задач.