Artwork

Nội dung được cung cấp bởi AI Sweden. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được AI Sweden hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.
Player FM - Ứng dụng Podcast
Chuyển sang chế độ ngoại tuyến với ứng dụng Player FM !

LeakPro skapar förutsättningar för samarbeten kring känslig data

37:43
 
Chia sẻ
 

Manage episode 463698091 series 2908682
Nội dung được cung cấp bởi AI Sweden. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được AI Sweden hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Johan Östman, forskare och projektledare på AI Sweden, berättar i det här avsnittet om projektet LeakPro. Ambitionen är att bättre förstå – och därmed också kunna förhålla sig till – risken för att modeller läcker träningsdata.

– Ska man i en mening beskriva vad vi försöker göra handlar det om att låsa upp samarbeten kring känslig data, säger han.

⁠LeakPro⁠ bygger vidare på slutsatser som drogs i ett tidigare AI Sweden-projekt. I Regulatory Pilot Testbed jobbade Region Halland och Sahlgrenska Universitetssjukhuset tillsammans med IMY och AI Sweden. Syftet var då att utforska hur federerad inlärning skulle kunna användas i sjukvården. Integritetsskyddsmyndigheten konstaterade att det inte gick att bedöma sannolikheten för att modeller, tränade på personuppgifter, läcker träningsdata. Som en konsekvens måste modellerna i sig betraktas som personuppgifter, och därför hanteras utifrån hur personuppgifter regleras.

I LeakPro är ambitionen att svara på den centrala frågan: Hur stor är sannolikheten för att en viss modell läcker träningsdata? De som jobbar för att hitta svaret är AstraZeneca, Region Halland, Sahlgrenska Universitetssjukhuset, Scaleout, Syndata, RISE och AI Sweden.

Känner man till sannolikheten för läckage öppnas två dörrar. Den ena gör det möjligt att fatta verksamhetsbeslut. “Är risken för att träningsdata läcker rimlig i förhållande till värdet som modellen kan skapa?” Den andra gör det möjligt för utvecklare att utvärdera sina modeller och utveckla dem vidare så att risken för läckage minskar till en acceptabel nivå.

– Det vi vill bygga är något som är relevant och användbart, och för att göra det måste vi ligga i frontlinjen av den akademiska forskningen, för att använda de skarpaste attackerna som finns, säger Johan Östman.

I poddavsnittet utvecklar han bakgrunden till projektet, hur samverkan mellan aktörer från olika sektorer stärker LeakPro, vad målbilden är, och hur resan dit ser ut.

  continue reading

74 tập

Artwork
iconChia sẻ
 
Manage episode 463698091 series 2908682
Nội dung được cung cấp bởi AI Sweden. Tất cả nội dung podcast bao gồm các tập, đồ họa và mô tả podcast đều được AI Sweden hoặc đối tác nền tảng podcast của họ tải lên và cung cấp trực tiếp. Nếu bạn cho rằng ai đó đang sử dụng tác phẩm có bản quyền của bạn mà không có sự cho phép của bạn, bạn có thể làm theo quy trình được nêu ở đây https://vi.player.fm/legal.

Johan Östman, forskare och projektledare på AI Sweden, berättar i det här avsnittet om projektet LeakPro. Ambitionen är att bättre förstå – och därmed också kunna förhålla sig till – risken för att modeller läcker träningsdata.

– Ska man i en mening beskriva vad vi försöker göra handlar det om att låsa upp samarbeten kring känslig data, säger han.

⁠LeakPro⁠ bygger vidare på slutsatser som drogs i ett tidigare AI Sweden-projekt. I Regulatory Pilot Testbed jobbade Region Halland och Sahlgrenska Universitetssjukhuset tillsammans med IMY och AI Sweden. Syftet var då att utforska hur federerad inlärning skulle kunna användas i sjukvården. Integritetsskyddsmyndigheten konstaterade att det inte gick att bedöma sannolikheten för att modeller, tränade på personuppgifter, läcker träningsdata. Som en konsekvens måste modellerna i sig betraktas som personuppgifter, och därför hanteras utifrån hur personuppgifter regleras.

I LeakPro är ambitionen att svara på den centrala frågan: Hur stor är sannolikheten för att en viss modell läcker träningsdata? De som jobbar för att hitta svaret är AstraZeneca, Region Halland, Sahlgrenska Universitetssjukhuset, Scaleout, Syndata, RISE och AI Sweden.

Känner man till sannolikheten för läckage öppnas två dörrar. Den ena gör det möjligt att fatta verksamhetsbeslut. “Är risken för att träningsdata läcker rimlig i förhållande till värdet som modellen kan skapa?” Den andra gör det möjligt för utvecklare att utvärdera sina modeller och utveckla dem vidare så att risken för läckage minskar till en acceptabel nivå.

– Det vi vill bygga är något som är relevant och användbart, och för att göra det måste vi ligga i frontlinjen av den akademiska forskningen, för att använda de skarpaste attackerna som finns, säger Johan Östman.

I poddavsnittet utvecklar han bakgrunden till projektet, hur samverkan mellan aktörer från olika sektorer stärker LeakPro, vad målbilden är, och hur resan dit ser ut.

  continue reading

74 tập

Tất cả các tập

×
 
Loading …

Chào mừng bạn đến với Player FM!

Player FM đang quét trang web để tìm các podcast chất lượng cao cho bạn thưởng thức ngay bây giờ. Đây là ứng dụng podcast tốt nhất và hoạt động trên Android, iPhone và web. Đăng ký để đồng bộ các theo dõi trên tất cả thiết bị.

 

Hướng dẫn sử dụng nhanh

Nghe chương trình này trong khi bạn khám phá
Nghe