Artwork

Nội dung được cung cấp bởi Hugo Bowne-Anderson. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Hugo Bowne-Anderson hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

Episode 61: The AI Agent Reliability Cliff: What Happens When Tools Fail in Production

28:04
 
Chia sẻ
 

Manage episode 514005909 series 3317544
Nội dung được cung cấp bởi Hugo Bowne-Anderson. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Hugo Bowne-Anderson hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Most AI teams find their multi-agent systems devolving into chaos, but ML Engineer Alex Strick van Linschoten argues they are ignoring the production reality. In this episode, he draws on insights from the LLM Ops Database (750+ real-world deployments then; now nearly 1,000!) to systematically measure and engineer constraint, turning unreliable prototypes into robust, enterprise-ready AI.

Drawing from his work at Zen ML, Alex details why success requires scaling down and enforcing MLOps discipline to navigate the unpredictable "Agent Reliability Cliff". He provides the essential architectural shifts, evaluation hygiene techniques, and practical steps needed to move beyond guesswork and build scalable, trustworthy AI products.

We talk through:

  • Why "shoving a thousand agents" into an app is the fastest route to unmanageable chaos
  • The essential MLOps hygiene (tracing and continuous evals) that most teams skip
  • The optimal (and very low) limit for the number of tools an agent can reliably use
  • How to use human-in-the-loop strategies to manage the risk of autonomous failure in high-sensitivity domains
  • The principle of using simple Python/RegEx before resorting to costly LLM judges

LINKS

🎓 Learn more:

-This was a guest Q&A from Building LLM Applications for Data Scientists and Software Engineershttps://maven.com/hugo-stefan/building-llm-apps-ds-and-swe-from-first-principles?promoCode=AI20

Next cohort starts November 3: come build with us!

  continue reading

64 tập

Artwork
iconChia sẻ
 
Manage episode 514005909 series 3317544
Nội dung được cung cấp bởi Hugo Bowne-Anderson. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được Hugo Bowne-Anderson hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Most AI teams find their multi-agent systems devolving into chaos, but ML Engineer Alex Strick van Linschoten argues they are ignoring the production reality. In this episode, he draws on insights from the LLM Ops Database (750+ real-world deployments then; now nearly 1,000!) to systematically measure and engineer constraint, turning unreliable prototypes into robust, enterprise-ready AI.

Drawing from his work at Zen ML, Alex details why success requires scaling down and enforcing MLOps discipline to navigate the unpredictable "Agent Reliability Cliff". He provides the essential architectural shifts, evaluation hygiene techniques, and practical steps needed to move beyond guesswork and build scalable, trustworthy AI products.

We talk through:

  • Why "shoving a thousand agents" into an app is the fastest route to unmanageable chaos
  • The essential MLOps hygiene (tracing and continuous evals) that most teams skip
  • The optimal (and very low) limit for the number of tools an agent can reliably use
  • How to use human-in-the-loop strategies to manage the risk of autonomous failure in high-sensitivity domains
  • The principle of using simple Python/RegEx before resorting to costly LLM judges

LINKS

🎓 Learn more:

-This was a guest Q&A from Building LLM Applications for Data Scientists and Software Engineershttps://maven.com/hugo-stefan/building-llm-apps-ds-and-swe-from-first-principles?promoCode=AI20

Next cohort starts November 3: come build with us!

  continue reading

64 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh

Nghe chương trình này trong khi bạn khám phá
Nghe