Если ИИ — это мозг, то без нормальной памяти он как программист без кофе: что-то делает, но смотреть страшно. Хорошая новость в том, что «память» у ИИ наконец становится умной — не больше, а лучше. И в этой истории слово «лучше» означает поиск.

На TechCrunch Disrupt 2025, который пройдёт 27–29 октября в Moscone West, основатель и CEO Pinecone Эдо Либерти будет убеждать зал в очевидном и при этом революционном: следующий виток ИИ‑приложений задаёт не размер модели, а способность быстро находить именно те данные, которые имеют значение сейчас. RAG (retrieval‑augmented generation), векторные базы и заточенная под это инфраструктура — не модные аббревиатуры, а фундамент нового приложения, которое отвечает не «в целом», а по делу.

Суть проста: когда данных море, выигрывает тот, у кого компас лучше. Векторные представления превращают смысл в координаты, высокопроизводительные индексы делают поиск молниеносным, а RAG связывает это с генерацией так, чтобы модель не «выдумывала», а подтягивала проверенные факты. Результат — масштабируемые, предсказуемые и более точные решения, от поддержки клиентов до аналитики в реальном времени.

Либерти знает, о чём говорит: в Amazon он помогал строить «скелет» больших систем, а с Pinecone дал сотням тысяч разработчиков и корпоративных команд инструмент для векторного поиска без боли с DevOps. Его сессия «Почему следующий фронтир — поиск» обещает спуститься в «подвал» стека — туда, где решается судьба скорости, качества и стоимости ИИ‑функций.

Если вы строите продукт на ИИ, это разговор про практику, а не про хайп. Как проектировать хранилища признаков? Где проходит граница между кэшем, индексом и долгой памятью? Что считать «достаточно быстрым» при миллиардах векторов? Ответы — там, где поиск встречает генерацию.

И да, на Disrupt ожидают более десяти тысяч людей из мира стартапов и инвестиций. Билеты выгоднее до 26 сентября — а правильная архитектура памяти, как и хорошие места в зале, редко достаются тем, кто тянет до последнего.