90% людей используют нейросети как поисковик. И проигрывают.
В пятницу вечером, 14 февраля, я сидел перед экраном и по привычке задал ChatGPT очередной вопрос: «Как оптимизировать React-компонент». Четыре часа я получал одни и те же шаблонные ответы. На грани отчаяния, я написал развёрнутый промпт с полным описанием проекта. И за восемь минут получил решение, которое продал клиенту за $300 . Почему ChatGPT как поисковик - это ошибка До этого момента я использовал ChatGPT как поисковик. Задавал простые вопросы и получал стандартные ответы. Это не работало. Ответы были слишком общими, и мне приходилось читать кучу ненужной информации. Понял, что платил за такси, но ездил как на автобусе - по чужому маршруту. Всё это время я ждал, что нейросеть сама догадается о контексте. Это было больно. Я терял часы на переработку информации, которую мог бы получить
В пятницу вечером, 14 февраля, я сидел перед экраном и по привычке задал ChatGPT очередной вопрос: «Как оптимизировать React-компонент». Четыре часа я получал одни и те же шаблонные ответы. На грани отчаяния, я написал развёрнутый промпт с полным описанием проекта. И за восемь минут получил решение, которое продал клиенту за $300.
Почему ChatGPT как поисковик - это ошибка
До этого момента я использовал ChatGPT как поисковик. Задавал простые вопросы и получал стандартные ответы. Это не работало. Ответы были слишком общими, и мне приходилось читать кучу ненужной информации. Понял, что платил за такси, но ездил как на автобусе - по чужому маршруту.
Всё это время я ждал, что нейросеть сама догадается о контексте. Это было больно. Я терял часы на переработку информации, которую мог бы получить быстрее. Понимал, что надо что-то менять, но не знал, как.
Я собрал промпты по этой теме в PDF. Забери бесплатно: https://t.me/airozov_bot
Как я нашёл рабочее решение
Решение оказалось простым: давать нейросети больше контекста. Вместо «как оптимизировать React-компонент», я начал писать: «У меня есть компонент в проекте на React, который тормозит при обновлении данных из-за большого количества рендеров. Как это оптимизировать, учитывая, что стейт изменяется через setState?».
Claude и Cursor стали спасением. Комбинируя их, я смог получить ответы, которые сразу решали задачи. Claude лучше работает с текстами и сложными запросами, а Cursor помогает с кодом. Эта связка сэкономила мне 47% времени на обработку задач.
Ещё одна находка - всегда указывать ограничения и стеки технологий. Например, «Проект на TypeScript, используем Redux для стейта». Это позволило мне получить более точные советы и решения.
Неожиданный инсайт
Самое удивительное, что я обнаружил - нейросети любят контекст. Чем больше я давал информации, тем лучше были результаты. Я понял: нейросети - это не магия, а инструмент. Они не могут читать мысли, но умеют анализировать и предлагать решения, если их правильно направить.
Это открыло для меня новую перспективу. Я стал более внимателен к тому, как формулирую запросы. И да, теперь я зарабатываю больше, потому что моё время используется эффективнее.
Каждый день разбираю один такой инструмент в Telegram: https://t.me/yevheniirozov
Что сделать прямо сейчас
Зайди на claude.ai и попробуй написать следующий промпт: «Работаю над проектом на React с использованием Redux. Компонент тормозит при рендере из-за увеличенной нагрузки на стейт. Как можно улучшить производительность, учитывая, что нельзя менять структуру проекта?».
Так ты увидишь разницу в подходе. Начни задавать правильные вопросы и получай результаты быстрее.
Платить за такси и ездить по автобусному маршруту - это неэффективно. Начни использовать нейросети на полную мощность.
Подписывайся на мой Telegram:
-
Промпты, которые использую сам
-
Ошибки, которые стоили мне денег
-
Инструменты до того, как о них напишут все
Sign in to highlight and annotate this article

Conversation starters
Daily AI Digest
Get the top 5 AI stories delivered to your inbox every morning.
More about
claudecursorchatgpt
Built my 10x NVidia V100 AI Server - 320gb vram - vLLM Testing Linux Headless - Just a Lawyer,Need Tips
Just by way of background: I am from the Midwest but I’m lawyer in South Carolina (and I am actually preparing for a trial next week and should be asleep). Have had my own Law firm for 11 years now. About 4 months ago Claude code did some things that were pretty powerful and scared the shit out of me. Since then I’ve probably wasted more time than I gained, but I have been successful in automating a lot of low level paralegal type tasks, and have learned a lot. It has been fun along the way, or at least interesting in a way that I have enjoyed. I got fixated on having a local private server running a local model that I could do Rag and Qlora/dora on. Still moving towards that goal when I’m not too busy with other things. I was not building computers or successfully installing and running h

Token-Efficient Multimodal Reasoning via Image Prompt Packaging
arXiv:2604.02492v1 Announce Type: new Abstract: Deploying large multimodal language models at scale is constrained by token-based inference costs, yet the cost-performance behavior of visual prompting strategies remains poorly characterized. We introduce Image Prompt Packaging (IPPg), a prompting paradigm that embeds structured text directly into images to reduce text token overhead, and benchmark it across five datasets, three frontier models (GPT-4.1, GPT-4o, Claude 3.5 Sonnet), and two task families (VQA and code generation). We derive a cost formulation decomposing savings by token type and show IPPg achieves 35.8--91.0\% inference cost reductions. Despite token compression of up to 96\%, accuracy remains competitive in many settings, though outcomes are highly model- and task-dependen

Multi-Turn Reinforcement Learning for Tool-Calling Agents with Iterative Reward Calibration
arXiv:2604.02869v1 Announce Type: new Abstract: Training tool-calling agents with reinforcement learning on multi-turn tasks remains challenging due to sparse outcome rewards and difficult credit assignment across conversation turns. We present the first application of MT-GRPO (Multi-Turn Group Relative Policy Optimization) combined with GTPO (Generalized Token-level Policy Optimization) for training a tool-calling agent on realistic customer service tasks with an LLM-based user simulator. Through systematic analysis of training rollouts, we discover that naively designed dense per-turn rewards degrade performance by up to 14 percentage points due to misalignment between reward discriminativeness and advantage direction. We introduce Iterative Reward Calibration, a methodology for designin
Knowledge Map
Connected Articles — Knowledge Graph
This article is connected to other articles through shared AI topics and tags.
More in Models

On the Geometric Structure of Layer Updates in Deep Language Models
arXiv:2604.02459v1 Announce Type: new Abstract: We study the geometric structure of layer updates in deep language models. Rather than analyzing what information is encoded in intermediate representations, we ask how representations change from one layer to the next. We show that layerwise updates admit a decomposition into a dominant tokenwise component and a residual that is not captured by restricted tokenwise function classes. Across multiple architectures, including Transformers and state-space models, we find that the full layer update is almost perfectly aligned with the tokenwise component, while the residual exhibits substantially weaker alignment, larger angular deviation, and significantly lower projection onto the dominant tokenwise subspace. This indicates that the residual is

VALOR: Value-Aware Revenue Uplift Modeling with Treatment-Gated Representation for B2B Sales
arXiv:2604.02472v1 Announce Type: new Abstract: B2B sales organizations must identify "persuadable" accounts within zero-inflated revenue distributions to optimize expensive human resource allocation. Standard uplift frameworks struggle with treatment signal collapse in high-dimensional spaces and a misalignment between regression calibration and the ranking of high-value "whales." We introduce VALOR (Value Aware Learning of Optimized (B2B) Revenue), a unified framework featuring a Treatment-Gated Sparse-Revenue Network that uses bilinear interaction to prevent causal signal collapse. The framework is optimized via a novel Cost-Sensitive Focal-ZILN objective that combines a focal mechanism for distributional robustness with a value-weighted ranking loss that scales penalties based on finan

Mitigating Data Scarcity in Spaceflight Applications for Offline Reinforcement Learning Using Physics-Informed Deep Generative Models
arXiv:2604.02438v1 Announce Type: new Abstract: The deployment of reinforcement learning (RL)-based controllers on physical systems is often limited by poor generalization to real-world scenarios, known as the simulation-to-reality (sim-to-real) gap. This gap is particularly challenging in spaceflight, where real-world training data are scarce due to high cost and limited planetary exploration data. Traditional approaches, such as system identification and synthetic data generation, depend on sufficient data and often fail due to modeling assumptions or lack of physics-based constraints. We propose addressing this data scarcity by introducing physics-based learning bias in a generative model. Specifically, we develop the Mutual Information-based Split Variational Autoencoder (MI-VAE), a ph

Do We Need Frontier Models to Verify Mathematical Proofs?
arXiv:2604.02450v1 Announce Type: new Abstract: Advances in training, post-training, and inference-time methods have enabled frontier reasoning models to win gold medals in math competitions and settle challenging open problems. Gaining trust in the responses of these models requires that natural language proofs be checked for errors. LLM judges are increasingly being adopted to meet the growing demand for evaluating such proofs. While verification is considered easier than generation, what model capability does reliable verification actually require? We systematically evaluate four open-source and two frontier LLMs on datasets of human-graded natural language proofs of competition-level problems. We consider two key metrics: verifier accuracy and self-consistency (the rate of agreement ac


Discussion
Sign in to join the discussion
No comments yet — be the first to share your thoughts!