Ничего не найдено. Попробуйте еще
Слово «нейросеть» уже прочно вошло не только в наш лексикон, но и практически во все сферы жизни. ИИ поможет в работе и учёбе, сгенерирует забавную картинку, посоветует рецепт лучшего куриного бульона. А, например, ИИ-помощник МТС Линк выделит ключевые моменты прошедшего онлайн-созвона с коллегами или сделает сводку непрочитанных сообщений. Но, несмотря на популярность нейросетей, у многих людей до сих пор возникает непонимание, что это за технологии, как они ещё могут быть полезны и что стоит знать.
Мы поговорили с Кириллом Пшинником, сооснователем и CEO онлайн-университета Zerocoder по обучению работе с нейросетями и промпт-инжинирингу, и разобрались, что же поможет увереннее ориентироваться в этой теме. Интервью получилось большим, но интересным, поэтому разбили его на две части. И сегодня публикуем первую.
Кирилл Пшинник — сооснователь и CEO онлайн-университета «Зерокодер», крупнейшего в России по обучению работе с нейросетями, промпт-инжинирингу и no-code-разработке.
Квалифицированный инвестор, аккредитованный Moscow Seed Fund, эксперт в Фонде содействия инновациям, лектор РАНХиГС, «Иннополиса» и МГУ им. Ломоносова.
Контрибьютор Forbes, консультант РБК, частый гость федеральных медиа по темам онлайн-образования, зерокодинга, развития нейросетей и ИИ.
Что такое нейросети и как ими пользоваться?
Нейросеть — это программа, которая учится на большом объёме примеров и потом сама находит ответ на похожие задачи. Она копирует принцип работы мозга: видит много фото котов, запоминает общие черты и распознает кота на новой картинке. Американский исследователь ИИ, сооснователь Coursera, бывший руководитель проекта Google Brain Эндрю Нг называет искусственный интеллект новым электричеством: как ток провели в любой прибор, так и нейросети встраивают в камеры, колонки и приложения, чтобы сделать их умнее.
Как пользоваться нейросетью? Это достаточно просто: выбираете сервис (например, «Яндекс Алиса», GigaChat или DeepSeek), формулируете запрос — проверяете результат. Если ответ неточен, добавляете деталей или приводите дополнительный пример. Так модель учится точнее выполнять задачу. Применение нейросетей в бизнесе возможно, например, для автоматического составления отчётов или поддержки клиентов 24/7. Главное правило: чётко ставьте задачу и оценивайте, помогает ли модель решать её лучше, чем раньше.
Есть ли разница между ИИ и нейросетью?
Искусственный интеллект — это общее имя для любых технологий, которые позволяют машине видеть, говорить, понимать текст или принимать решения так, как это делает человек. Под ИИ попадают простые правила в интернет-банке, игра «шахматы против компьютера» и сложные алгоритмы, которые прогнозируют погоду.
Нейросеть — это один из инструментов внутри ИИ. Она обучается на примерах и выявляет скрытые связи: показывает кошку на фото, подбирает товар для рекламы, переводит фразу на другой язык. То есть каждая нейросеть — это ИИ, но не каждый ИИ обязан быть нейросетью. Так же, как каждая лампочка использует электричество, но не всё электричество тратится только на лампочки.
Что умеют нейросети? Почему одна языковая модель позволяет то, чего не могут делать другие? Они базируются на реальном языке (семантике/логике/структуре) или на коде?
Нейросети уже пишут тексты, переводят статьи, ищут болезнь по снимку лёгких, озвучивают рекламу и придумывают музыку. Одни языковые модели поддерживают короткий диалог или подбирают эмодзи к сообщению, другие решают олимпиадные задачи, пишут код и отвечают в стиле выбранного бренда. Разница в объёме и чистоте обучающих данных, в сложности архитектуры и том, как разработчики настроили модель под конкретную задачу. Чем больше и разнообразнее примеры, тем шире словарь, глубже понимание контекста и выше точность.
Любая модель стартует не с правил грамматики, а с огромной таблицы чисел. Она превращает слова в векторы и учится находить между ними статистические связи: «чай» часто рядом с «пить», «сахар» близко к «сладкий». Мы видим семантику, логику и структуру фразы на выходе, но внутри работает чистая математика без готовых правил языка или явного кода о «подлежащем и сказуемом».

А есть нейросеть, которая умеет всё?
Сегодня универсальной нейросети нет. Даже самые большие модели вроде GPT-4o или Gemini ошибаются в расчётах, путают факты и не видят всего контекста задачи. Главный учёный Google Джефф Дин говорит, что, прежде чем ИИ станет «виртуальным инженером», ему ещё нужно научиться тестировать и отлаживать код, как это делает человек.
Поэтому компании держат целый «парк» сетей: одна ищет опухоль на снимке, другая пишет код, третья сочиняет музыку. Каждая учится на своих данных и заточена под конкретную цель, как дрель, пылесос и шуруповёрт в одном доме.
AGI — искусственный интеллект, который способен решать любые задачи на уровне человека. Прогнозы разные: глава OpenAI Сэм Альтман считает, что мощная AGI может появиться уже к 2027 году, а Демис Хассабис из Google DeepMind даёт срок до 2030-го. Эксперты сходятся в одном: чем ближе к AGI, тем важнее безопасность, чёткие цели обучения и международные правила игры.
Как нейросети могут изменить мир?
Нейросети и ИИ поднимут экономику и уберут рутину. McKinseyсчитает: генеративный ИИ уже к 2030 году даст бизнесу до 4,4 трлн долларов в год: чат-боты снимут нагрузку с поддержки, ассистенты помогут менеджеру писать письма, алгоритмы найдут дефект на конвейере без перерыва. World Economic Forum прогнозирует, что к 2027 году половине компаний придётся перестроить процессы под ИИ, а 12 млн человек сменят профессию.
Применение нейросетей изменит и быт, как когда-то изменила его интернет-связь. Колонка по голосу выключит свет, термостат сам снизит счёт за электричество, часы вовремя подскажут о сбое сердечного ритма, а камера умного холодильника покажет, что приготовить из оставшихся продуктов. Исследователи NBER отмечают: ИИ вышел на 40% пользователей всего за два года, тогда как интернету потребовалось пять лет. Значит, перемены придут быстрее.

Почему нейросетям (чат-ботам особенно) нельзя всецело доверять? Даже тем, которые ищут информацию по исследованиям и дают ссылки на них (вроде Perplexity или Rabbithole)
Люди видят мир не так, как снимает камера. Мозг достраивает пробелы, подменяет детали и иногда создаёт ложные воспоминания. Эффект Манделы (явление, когда большое число людей якобы помнит о каком-то событии, хотя в действительности оно никогда не происходило — прим. ред) показывает, как тысячи уверены, что читали Berenstein Bears, хотя на обложке всегда было Berenstain. Психологи называют это конфабуляцией: мы склеиваем знакомые фрагменты в правдоподобную историю и уверенно считаем её произошедшей на самом деле. Нейросеть строит ответ похожим способом: она считает, какое слово вероятнее поставить дальше, а не проверяет факт.
Отсюда «галлюцинации» — убедительный, но выдуманный вывод или неправильная ссылка. Даже поисковые боты вроде Perplexity опираются на статьи из интернета, но не всегда могут оценить, точен ли источник: если в статье ошибка, модель её унаследует. Журналисты ловят Perplexity на цитировании спам-блогов и AI-контента без проверки. Поэтому ответы ИИ — это черновик: сверяйте цифры, открывайте оригинал и помните, что «мусор» на входе почти гарантирует галлюцинацию на выходе.
Однако начиная с конца 2024 года появились модели с размышлением (reasoning), такие как OpenAI (o1, o3), DeepSeek-R1 и другие. Такой режим позволяет модели сначала сгенерировать текст, потом проверить его и уже после этого отдать пользователю. Это значительно уменьшает вероятность галлюцинаций, однако полностью не защищает от возможных ссылок на непроверенные материалы.
Где предел обучения нейросетей? Какие человеческие навыки и свойства нельзя перевести в код? Писатель-фантаст Айзек Азимов таким свойством называл любопытство, но это было 50 лет назад, а что теперь?
Нейросети добились впечатляющих успехов, но их обучение всё ещё ограничено природой данных, на которых они тренируются. Нейросеть никогда не трогала предметы, она никогда не ощущала холод или жару, не любила. Обо всём этом она читала много книг и материалов, но эти эмоции она никогда не испытывала. Нейросети способны симулировать эмпатию, выдавая чуткие фразы, но настоящая эмоциональная глубина и понимание контекста неподвластны коду. Это иллюстрирует проблему «симуляции эмпатии», когда ИИ может распознать эмоции, но не пережить их по-человечески. Несмотря на умение быстро обрабатывать и анализировать данные, нейросети не заменят критического мышления и творческого решения задач, так как эти навыки базируются на гибкости ума и моральном осмыслении, которое выходит за рамки статистического предсказания.
Азимов, предвидевший роль любопытства в развитии интеллекта, напоминал, что без внутреннего стремления к поиску нового нет роста ни машинному, ни человеческому разуму. Модели не обладают метапознанием — они не могут анализировать собственные ограничения и ставить перед собой новые цели, что делает невозможным появление настоящего самосознания в рамках современных технологий. Кроме того, отсутствие прозрачности решений и уязвимость к этическим дилеммам требуют постоянного надзора человека и внедрения Explainable AI, то есть методов, объясняющих принятие того или иного решения нейросетью. И хотя производители нейросетей стремятся создать ИИ-компаньонов для борьбы с одиночеством, они всё ещё не могут без участия человека воспроизвести коллективный опыт, живое общение и научить проявлению эмоций лучше человека.

Есть нейросети, которым открыт доступ в интернет (GPT) и закрыт (DeepSeek). Как и когда такие нейросети обновляют? Почему нельзя взять и сделать открытый доступ в интернет? В чём сложность?
Нейросети без прямого доступа в интернет обновляются лишь периодически через дообучение (fine-tuning) на новых наборах данных или переобучение (retraining). К ним можно отнести GigaChat,семейство моделей DeepSeek, например. Нейросети, такие как ChatGPT, могут в моменте подтягивать свежую информацию из всемирной паутины. Обновления закрытых моделей обычно выполняются следующим образом: инженеры собирают новые данные, куда входят записи диалогов, корпуса статей, вики-документы. Потом фильтруют и очищают их. А далее запускают автоматизированный пайплайн (последовательность процессов или выполнения типовых задач — ред.) переобучения, который может быть спланирован раз в квартал или по достижении ключевых метрик производительности.
Иногда применяют «деликатное» дообучение (Delicate Fine-Tuning), когда корректируются лишь небольшие части параметров, отвечающие за конкретные знания, чтобы минимизировать регрессию старых навыков модели.
Полное переобучение на каждое новое событие нецелесообразно из-за огромных вычислительных затрат. Поэтому обновления закрытых систем проводятся умеренно — как правило, раз в несколько месяцев или по критическим запросам: добавление новых языков, ключевых фактов или специализированных доменных знаний.
Идея дать любой нейросети открытый доступ в интернет сталкивается со множеством сложностей. Во-первых, постоянный онлайн-доступ делает модели уязвимыми к промпт-инъекциям и злонамеренным манипуляциям, когда через внешние сайты и плагины в модель может быть внедрён вредоносный код или дезинформация.
Во-вторых, неконтролируемый сбор данных из открытого веба опасен нарушением авторских прав, распространением токсичного или неприемлемого контента и юридическими претензиями к разработчикам.
Ещё есть проблема консистентности ответов. То есть, если вы задаёте похожие вопросы или возвращаетесь к уже обсуждённым темам, нейросеть должна выдавать схожие, согласованные ответы, не противоречащие ранее сказанному. Она также должна сохранять нить диалога. Без жёсткого контроля над источниками и валидации информации модель может выдавать противоречивые или некорректные данные, что особенно критично в профессиональных и медицинских приложениях.
Также нужно понимать, что каждое обращение в интернет увеличивает время отклика и нагрузку на сеть, что ухудшает пользовательский опыт и снижает надёжность сервиса.
Наконец, безопасность данных и конфиденциальность пользователей требуют строгого изоляционного режима: модели на стороне сервера не должны передавать пользовательский ввод третьим лицам без шифрования и аудита. Именно поэтому большинство коммерческих LLM (больших языковых моделей — прим. ред.) строят гибридную архитектуру: основная модель работает офлайн на регулярно обновляемых батчах — порциях данных, каждую из которых модель может обработать за один раз, — а для «живых» запросов используется отдельный модуль с ограниченными проверенными источниками и специальными фильтрами контента.
Поэтому обновление закрытых нейросетей — это взвешенный компромисс между актуальностью знаний, вычислительной эффективностью, безопасностью и юридической ответственностью. Открытый доступ в интернет теоретически возможен, но на практике для надёжности и этичности использования ИИ его интегрируют лишь через контролируемые прокси-системы, а не через прямую неограниченную выдачу.
Во второй части интервью с Кириллом Пшинником разберёмся, как можно исправить логические ловушки ИИ, как нейросети изменят SEO-трафик, могут ли они помочь карьерному росту и используют ли учёные эти технологии в своей работе. Текст будет опубликован 10 июня на сайте МТС Линк Медиа.
Подпишитесь на рассылку МТС Линк Медиа
Каждую пятницу присылаем самые интересные статьи об эффективной работе и коммуникациях в онлайне на почту