用於測試AI型號的偏差的NHS藍圖

用於測試AI型號的偏差的NHS藍圖
分享分享

英國的國家衛生服務(NHS)正在試驗一個旨在識別和消除用於管理醫療保健的係統中的算法偏差的程序。NHS人工智能(AI)道德實驗室委托了ADA Lovelace研究所,開發算法影響評估(AIA)工具。該工具旨在提供算法的問責機製,以支持研究人員在可以訪問NHS數據之前評估AI係統和算法的潛在風險和偏差。

雖然AI可以支持健康和護理工作者在為人們提供更好的照顧時,如果算法偏差保持不變,則也會加劇現有的健康不等式。這項工作補充了NHS AI Lab道德團隊的持續工作,即可確保培訓數據集,測試AI係統多樣化和包容性。作為訪問NHS數據的條件,這迫使開發人員探索和解決其提出的AI係統的法律,社會和道德含義。但是,這並非旨在作為完整的解決方案,並且應該被算法問責製計劃補充,如審核或透明寄存器。此外,AIA不應取代現有的監管框架,而是取代英國已經使用的框架。

NHS新聞稿伴隨著ADA Lovelace研究,詳細說明了在現實世界中使用AIA的逐步過程。報告中提供的AIA的一個例子是加拿大的一個例子,該公司是為管理公共部門AI交付和采購標準而創建的。

來源:英國衛生和社會護理部ADA Lovelace學院

««歐洲聯盟采用人工情報建議


HIMSS 2022年3月14日至18日!»»

發表於:2022年3月14日星期一



NHS,人工智能,偏見NHS藍圖用於測試AI模型的偏差

沒有意見


登錄留下評論......

突出顯示的產品