Доверяй, но проверяй: 6 ситуаций, в которых не стоит пользоваться нейросетями

МТС Линк Встречи
Сервис для совещаний и онлайн-встреч
  • Стабильная связь
  • Техподдержка 24/7
  • ИИ-функции
Коротко
Нейросети (искусственный интеллект, ИИ) не всегда нужны. Некоторые эксперты считают, что нейросети приносят пользу и помогают в работе, другие — что они могут даже навредить.

С тех пор как ChatGPT и другие ИИ-инструменты превратились в привычных помощников, всё чаще звучат разные советы, как с ними работать. Но на практике ИИ нередко используют там, где он неэффективен или даже опасен. 

Вместе с экспертами в области искусственного интеллекта выяснили, какие задачи ему лучше не доверять и где ответственным по-прежнему должен оставаться человек.

Табу № 1: поручать стратегические и финансовые решения

Не стоит поручать искусственному интеллекту работу со стратегией и финансами. Из-за особенностей алгоритмов, направленных на удержание пользователей, ИИ старается угодить человеку, быстро соглашается с его идеями и не задаёт лишних вопросов. Из-за этого легко принять нейроответы за обоснованные выводы, хотя на самом деле это могут быть галлюцинации. 

«ИИ отлично обрабатывает информацию, но не понимает контекст бизнеса, личные договорённости, репутационные риски и стратегические последствия. Когда руководитель принимает решения, опираясь на ответы ИИ, он фактически передаёт управление внешней модели. Это приводит к потере уникальности, ошибочным приоритетам и размыванию ответственности», — пояснила издатель, редактор, автор телеграм-канала «Напиши и издай» и книг «Как подружиться с ChatGPT» и «Нейросети для пишущих» Мария Райдер. 

Аналитика, построенная на сгенерированных заключениях, несёт большие риски.

Искусственный интеллект создаёт иллюзию глубины. Он может красиво и связно разобрать данные, но при этом перепутать причины и следствия, додумать то, чего в данных нет, или сделать усреднённый вывод, который не отражает реальность.

Автор - Дмитрий Мораренко
Дмитрий Мораренко
Руководитель отдела мониторинга и аналитики в диджитал-агентстве «Интериум»

В подтверждение тому, что ИИ выдумывает данные, эксперт приводит в пример отчёт для правительства Австралии, подготовленный консалтинговой компанией Deloitte. При проверке выяснилось, что составил его ИИ. В тексте содержались выдуманные источники и цитаты. 

Слепое доверие к ИИ может привести компании к штрафам или репутационным потерям. Кроме того, ошибки могут масштабироваться с каждой генерацией. Если строить стратегию на таких данных, вся команда будет двигаться в неверном направлении, даже не подозревая об этом. 

«ИИ — удобный инструмент для поиска информации, статистики или анализа рынка. Но любые найденные данные стоит проверять. Риск в том, что галлюцинации выглядят как факт, потом переезжают в презентации и решения — и компания начинает строить действия на правдоподобной выдумке. Поэтому всё, что влияет на выводы, должно проходить человеческую проверку», — подчеркнул руководитель отдела искусственного интеллекта МТС Линк Дмитрий Крюков.

Табу № 2: писать код без ревью

ИИ действительно помогает писать код, но не гарантирует его безопасность. Нейросети могут вставлять небезопасные фрагменты кода или неправильно настраивать доступы. 

Издание Ars Technica сообщало об эксперименте, в результате которого в генерациях 16 популярных больших языковых моделей оказались галлюцинации, например несуществующие библиотеки. Использовать такой код — угроза кибербезопасности.

Табу № 3: принимать кадровые решения

HR-специалисты используют ИИ как вспомогательный инструмент, чтобы написать текст вакансии, отобрать резюме, сформулировать вопросы для собеседования или проанализировать ответы кандидатов. По оценкам, такая автоматизация освобождает рекрутерамдо 17 часов в неделю.

Но полностью делегировать кадровые решения ИИ нельзя. Некоторые эксперты считают, что автоматизация ломает рынок труда. Причина кроется в «дегуманизации» найма. Кандидаты проходят отбор не по опыту или потенциалу, а по совпадению ключевых слов. 

«Наём, увольнение, назначение штрафов и взаимодействие с клиентами в чувствительных ситуациях — это зоны, где ИИ лучше не использовать. ИИ не несёт ответственности за последствия, а вы несёте», — рассказал руководитель по внедрению ИИ в «Слетать.ру» Александр Быстров.

Дмитрий Мораренко согласен с утверждением и добавляет, что кадровые решения должны базироваться на доверии и этике. 

«Если нейросеть ранжирует резюме или делает выводы о надёжности и мотивации кандидата, решение легко становится несправедливым и непрозрачным. Главный риск — так называемый „чёрный ящик“. Человек не понимает, почему его отсеяли, а руководитель не может объяснить решение. В связи с этим высок риск конфликта, причём внутри и снаружи компании», — поделился эксперт.

Табу № 4: загружать конфиденциальные данные в публичные нейросети

Дмитрий Мораренко поделился простым правилом: если вы не готовы увидеть свои данные в интернете, не отправляйте их в общедоступные нейросети. Под запретом всё, что содержит конфиденциальную информацию: персональные данные, клиентские базы, внутренние презентации до релиза, бюджетные цифры, переписки, коммерческие условия, исходники и другие материалы, не предназначенные для публичного использования.

Проблема в том, что сотрудники загружают данные в ИИ в том числе через личные аккаунты. Так компания теряет контроль над собственной информацией. Ей неизвестно, как данные обрабатываются и где хранятся. 

«В публичные ИИ-системы нельзя загружать конфиденциальные данные. Вы не контролируете, где хранятся эти данные. Это может нарушать внутренние регламенты и требования законодательства о защите персональных данных и трансграничной передаче информации», — напомнил Александр Быстров.

Табу № 5: создавать контент под ключ

Распространённый сценарий: человек поручает ИИ написать текст, бегло его читает и, не отредактировав, использует в работе. 

«Особенно часто это происходит в тестовых заданиях. Такие тексты слишком общие, они не попадают в тон, содержат фактические неточности, выглядят искусственно, содержат явные признаки нейросетей», — рассказал Дмитрий Мораренко. 

ИИ способен собрать структуру, предложить варианты формулировок, но последнее слово должно быть за человеком.

«Особенно осторожно нужно обращаться с фактами, цифрами, ссылками. Даже рабочая ссылка может вести на источник, который ИИ выбрал случайно. Например, мы системно получали данные о времени перелётов, ссылающиеся на информацию с сайта одного из аэропортов. Даже после просьб обращаться к сайтам авиакомпаний, ИИ считал сайт аэропорта более авторитетным источником, хотя данные по расписаниям на нём были сильно устаревшими», — поделился опытом Александр Быстров.

Ещё одна опасная зона использования ИИ — создание экспертных публикаций. Для этой задачи нейросети не нужны. Мария Райдер замечает, что текст без личного опыта, позиции и ответственности не вызывает доверия. 

Аудитория очень быстро считывает тексты без живого смысла, реальных решений и личного мнения. ИИ не должен говорить вместо эксперта. Он может помогать формулировать, структурировать и ускорять, но не создавать экспертизу с нуля.

Автор - Мария Райдер
Мария Райдер
Издатель и редактор

Табу № 6: обращаться за психологической поддержкой

В сети можно увидеть статьи с промптами, как использовать ИИ в качестве психолога. Но эксперты предупреждают: такая практика может навредить. 

Например, журналисты Scientific American подчёркивают, что ИИ не предназначен для решения проблем психического здоровья или оказания эмоциональной поддержки. Их ответы оптимизированы под удержание внимания, а значит, чат-бот может поддерживать даже разрушительные мысли и поступки. Психотерапевт работает не так: он анализирует конкретную ситуацию, опирается на теорию, собственный опыт, мимику и жесты собеседника — и только так даёт обратную связь, помогает распознать и скорректировать вредные модели поведения. 

Возможность получить поддержку в момент кризиса бывает бесценной. Но важно помнить фундаментальное свойство больших языковых моделей: они стремятся вам угодить. В психологии это может не решить проблему, а усилить её. Вместо трезвой опоры человек получает убедительное подтверждение тревог, обид или разрушительных идей.

Автор - Дмитрий Крюков
Дмитрий Крюков
Руководитель отдела искусственного интеллекта МТС Линк

О вреде нейросетей в контексте психологической помощи говорит генеральный директор OpenAI Сэм Альтман. Индустрия пока не решила вопрос защиты конфиденциальности в деликатных разговорах. Значит, разработчики чат-ботов не гарантируют, что сумеют сохранить врачебную тайну.

Дмитрий Мораренко добавляет: разговаривать с чат-ботом о тревоге, панических атаках, отношениях или диагнозах не стоит и по другой причине.

«ИИ — это не специалист, и ответственность за последствия он не несёт. Длительное общение с чат-ботом способно усиливать переживания. Важно, чтобы у людей была альтернатива ИИ-психологам: доступ к реальной поддержке и культура разговоров о ментальном здоровье», — прокомментировал эксперт. 

В крайнем случае такое доверие может приводить даже к «ИИ-психозу» — так называют состояние, при котором у людей развивается паранойя и бредовые идеи в связи с использованием чат-ботов. 

Вместо итогов: как всё-таки можно использовать ИИ

Эксперты сходятся во мнении: есть задачи, которые можно смело передавать нейросетям. Например, с помощью ИИ-ассистентов можно:

  • писать черновики писем и презентаций
  • придумывать гипотезы для бизнеса и темы для постов
  • делать транскрибацию созвонов
  • составлять саммари переписок
  • анализировать данные, отзывы клиентов, рынок, конкурентов
  • автоматизировать обработку запросов и напоминания.

В корпоративных решениях, таких как платформа для коммуникаций, обучения и совместной работы МТС Линк, есть встроенный ИИ-помощник. Все данные обрабатываются в соответствии с требованиями российского законодательства. Это позволяет безопасно использовать ИИ для работы с внутренними материалами без риска утечки. Так, ИИ-ассистент автоматически зафиксирует договорённости, подготовит текстовую расшифровку онлайн-встречи, проанализирует непрочитанные сообщения и составит краткую выжимку. Всё это экономит рабочее время и позволяет сфокусироваться на решении более творческих и ответственных задач.

Подпишитесь на рассылку МТС Линк Медиа

Каждую пятницу присылаем самые интересные статьи об эффективной работе и коммуникациях в онлайне на почту