摘要

人工智能进一步提升了信息系统的自动化程度,但在其规模应用过程中出现了一些新问题,如数据安全、隐私保护、公平伦理等。为了解决这些问题,推动AI由可用系统向可信系统转变,提出了可信AI治理框架——T-DACM,从数据、算法、计算、管理4个层级入手提升AI的可信性,设计了不同组件针对性地解决数据安全、模型安全、隐私保护、模型黑盒、公平无偏、追溯定责等具体问题。T-DACM实践案例为业界提供了一个可信AI治理示范,为后续基于可信AI治理框架的产品研发提供了一定的参考。