Skip to content
Artificial Intelligence

Laravel AI SDK Estável e Busca Vetorial Nativa: O Futuro das Aplicações Web com IA

Published: Duration: 7:24
0:00 0:00

Transcript

Apresentadora: E aí, pessoal, bem-vindos de volta ao Allur, o seu ponto de encontro sobre PHP, Laravel, Go e tudo o que há de mais quente no desenvolvimento mobile e web. Eu sou a Juliana Santos e, olha, hoje o papo é de deixar qualquer dev de queixo caído. Sabe aquela conversa de que IA é coisa só de quem usa Python ou que é só um "brinquedo" experimental no desenvolvimento web? Esquece isso. O jogo mudou. Recentemente, o ecossistema Laravel deu um salto gigantesco com o lançamento da versão estável do Laravel AI SDK e a chegada da busca vetorial nativa direto no core do framework. A gente tá falando de transformar o PHP em uma potência real para aplicações de Inteligência Artificial. Hoje, vamos entender como essa padronização reduz a nossa carga cognitiva e por que o Taylor Otwell está decidindo que o Laravel vai ser a plataforma definitiva para IA. Fica com a gente que o episódio de hoje está imperdível! Apresentadora: E para mergulhar nesse mar de vetores e LLMs comigo, eu trouxe um cara que manja muito de arquitetura e está acompanhando cada commit dessa evolução. Ele é desenvolvedor sênior, especialista em ecossistema Laravel e entusiasta de IA. Seja muito bem-vindo ao Allur, André Almeida! Valeu por aceitar o convite, André! Convidado: Valeu, Ju! É um prazer enorme estar aqui no Allur. Cara, eu tava ansioso por esse papo porque o que está acontecendo no Laravel agora é, tipo assim, um divisor de águas. A gente saiu daquela fase de "fazer uma gambiarra pra chamar a API da OpenAI" pra ter uma ferramenta profissional e integrada. Tô animado pra gente destrinchar isso! Apresentadora: Massa! E André, vamos começar pelo básico, mas que é fundamental: a estabilidade do SDK. Antes a gente tinha aquele pé atrás, né? "Ah, tá em beta, a API pode mudar amanhã". O que muda agora que o Laravel AI SDK é oficialmente estável? Convidado: Pois é, Ju, esse "selo" de estabilidade é o que o mercado precisava. Para o dev que trabalha em empresa grande, botar uma lib beta em produção é sempre um risco. Agora, a gente tem uma API unificada. O grande lance, cara, é a abstração. Antes, se você quisesse trocar da OpenAI pro Claude da Anthropic, ou pro Gemini do Google, você tinha que reescrever metade da sua lógica de integração. Agora não. O Laravel criou um "contrato", igual ele faz com as filas (Queues) ou com o sistema de arquivos. Você muda uma linha no config e a sua aplicação continua rodando com outro modelo. É a elegância do Laravel chegando na IA, né? Apresentadora: Isso é sensacional porque tira aquele medo do *vendor lock-in*, né? De ficar preso a um provedor só. E tem uma coisa que eu li no post e achei incrível: a busca vetorial nativa no Core. Explica pra gente, de um jeito simples, por que isso é tão diferente de uma busca comum que a gente já faz no banco de dados? Convidado: Boa pergunta! Imagina assim: na busca tradicional, se você procura por "cachorro", o banco procura exatamente a palavra "cachorro". Se no texto estiver "animal de estimação latindo", ele não acha. A busca vetorial é semântica, ela busca pelo *significado*. O Laravel agora facilita a gente guardar esses "embeddings" — que são basicamente listas de números que representam o significado de um texto — direto no banco, usando, por exemplo, o PostgreSQL com pgvector. E o mais legal, Ju, é que você usa o Eloquent pra isso! Tem um método novo, o `nearestTo`, que você passa o vetor e ele te traz os resultados mais próximos por similaridade. É tipo mágica, mas é pura matemática integrada no nosso ORM favorito. Apresentadora: Cara, que massa! Eu fico imaginando as possibilidades... sistema de recomendação, busca de produtos que realmente entende o que o usuário quer... Mas vem cá, e os tais "Agentes"? Eu vi que o SDK agora tem um suporte robusto para *tool-calling*. Como isso funciona na prática de um sistema web? Convidado: Esse é o "pulo do gato". A IA não serve só pra responder chat, ela tem que *fazer* coisas. Com o tool-calling, você define funções no seu código PHP — tipo "consultar estoque" ou "gerar boleto" — e expõe isso pro modelo de IA. O modelo decide: "Opa, o usuário pediu pra ver o estoque, então eu vou chamar essa função aqui". O Laravel orquestra isso de um jeito muito fluido. Você não precisa mais de scripts gigantescos de `if/else` pra tentar adivinhar o que a IA quer fazer. Ela mesma vira uma peça da sua lógica de negócio, interagindo com o Service Container e tudo mais. Apresentadora: É quase como se a IA ganhasse "mãos" pra mexer no nosso sistema, né? Mas André, muita gente se preocupa com o custo e a privacidade. Mandar tudo pra nuvem toda hora pesa no bolso. É aí que entra o tal do RAG que você comentou comigo antes de gravarmos? Convidado: Exatamente! O RAG, ou Geração Aumentada de Recuperação, é a solução pra isso. Em vez de você pegar um PDF de 500 páginas e mandar todo pro GPT (o que custaria uma fortuna e bateria no limite de tokens), você faz o seguinte: usa a busca vetorial nativa do Laravel pra achar só os dois ou três parágrafos que respondem à pergunta do usuário. Aí, você injeta *só esses parágrafos* como contexto no prompt. É muito mais barato, muito mais rápido e muito mais seguro, porque você controla exatamente o que sai da sua base de dados pra API externa. E o Laravel SDK já traz o "caminho das pedras" pra montar esse fluxo. Apresentadora: Nossa, isso facilita demais a vida. Eu lembro que uns meses atrás, pra montar um RAG decente, a gente tinha que estudar Python, LangChain, configurar bancos vetoriais complexos... agora parece que virou "só mais uma funcionalidade" do Laravel. Convidado: Exato, Ju! É a democratização. O Laravel foca na experiência do desenvolvedor (DX). Enquanto outras linguagens focam na ciência de dados pura, o Laravel foca em "como eu coloco isso na mão do meu usuário final hoje". A curva de aprendizado caiu de meses para dias, ou até horas se o cara já conhecer bem o framework. Apresentadora: Incrível. André, pra gente fechar, qual o seu conselho pra quem está ouvindo o Allur agora e ainda não mexeu com IA no Laravel? Por onde começar? Convidado: Cara, minha dica é: não espere o próximo "projeto perfeito". Pega uma funcionalidade simples, tipo uma busca no seu blog ou um FAQ inteligente, e tenta implementar usando o Laravel AI SDK. Lê a documentação oficial, que tá excelente como sempre, e testa a busca vetorial com o pgvector. O futuro das aplicações web é ser "AI-native", e quem dominar essas ferramentas agora vai estar muito na frente no mercado. PHP tá mais vivo do que nunca e pronto pro combate! Apresentadora: Sensacional, André! Que aula, hein? Eu saio daqui até com vontade de abrir o VS Code e já sair criando uns embeddings por aí. Muito obrigada por compartilhar sua experiência com a gente aqui no Allur! Convidado: Valeu, Ju! Um abraço pra todo mundo que tá ouvindo! Apresentadora: E para você que acompanhou a gente até aqui, as notas desse episódio com os links para a documentação oficial do Laravel AI SDK estão aqui na descrição. Não deixa de testar e contar pra gente o que achou nas nossas redes sociais. Valeu por sintonizar o Allur, o seu podcast de tecnologia. A gente se vê no próximo episódio. Tchau!

Tags

llms vector search ai agents web development php laravel openai