Artwork

Nội dung được cung cấp bởi John Willis. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được John Willis hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

S4 E21 - Erik J. Larson - The Myth of AI and Unravelling The Hype

1:04:25
 
Chia sẻ
 

Manage episode 440556139 series 3568163
Nội dung được cung cấp bởi John Willis. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được John Willis hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

In this episode of the Profound Podcast, I speak with Erik J. Larson, author of The Myth of Artificial Intelligence, about the speculative nature and real limitations of AI, particularly in relation to achieving Artificial General Intelligence (AGI). Larson delves into the philosophical and scientific misunderstandings surrounding AI, challenging the dominant narrative that AGI is just around the corner. Drawing from his expertise and experience in the field, Larson explains why much of the AI hype lacks empirical foundation. He emphasizes the limits of current AI models, particularly their reliance on inductive reasoning, which, though powerful, is insufficient for achieving human-like intelligence.

Larson discusses how the field of AI has historically blended speculative futurism with genuine technological advancements, often fueled by financial incentives rather than scientific rigor. He highlights how this approach has led to misconceptions about AI’s capabilities, especially in the context of AGI. Drawing connections to philosophical theories of inference, Larson introduces deductive, inductive, and abductive reasoning, explaining how current AI systems fall short in their over-reliance on inductive methods. The conversation touches on the challenges of abduction (the "broken" form of reasoning humans often use) and the difficulty of replicating this in AI systems.

Throughout the discussion, we explore the social and ethical implications of AI, including concerns about data limitations, the dangers of synthetic data, and the looming “data wall” that could hinder future AI progress. We also touch on broader societal impacts, such as how AI’s potential misuse and over-reliance might affect innovation and human intelligence.

  continue reading

71 tập

Artwork
iconChia sẻ
 
Manage episode 440556139 series 3568163
Nội dung được cung cấp bởi John Willis. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được John Willis hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

In this episode of the Profound Podcast, I speak with Erik J. Larson, author of The Myth of Artificial Intelligence, about the speculative nature and real limitations of AI, particularly in relation to achieving Artificial General Intelligence (AGI). Larson delves into the philosophical and scientific misunderstandings surrounding AI, challenging the dominant narrative that AGI is just around the corner. Drawing from his expertise and experience in the field, Larson explains why much of the AI hype lacks empirical foundation. He emphasizes the limits of current AI models, particularly their reliance on inductive reasoning, which, though powerful, is insufficient for achieving human-like intelligence.

Larson discusses how the field of AI has historically blended speculative futurism with genuine technological advancements, often fueled by financial incentives rather than scientific rigor. He highlights how this approach has led to misconceptions about AI’s capabilities, especially in the context of AGI. Drawing connections to philosophical theories of inference, Larson introduces deductive, inductive, and abductive reasoning, explaining how current AI systems fall short in their over-reliance on inductive methods. The conversation touches on the challenges of abduction (the "broken" form of reasoning humans often use) and the difficulty of replicating this in AI systems.

Throughout the discussion, we explore the social and ethical implications of AI, including concerns about data limitations, the dangers of synthetic data, and the looming “data wall” that could hinder future AI progress. We also touch on broader societal impacts, such as how AI’s potential misuse and over-reliance might affect innovation and human intelligence.

  continue reading

71 tập

Semua episod

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh