AI技术具有明显的"双刃剑"效应,其技术风险会随着AI与设计的融合被带入到AI产品中来。谷歌公司提出了关于AI应用的七项原则和四项底线,包括三方面设计伦理内涵:AI对人类福利状况的促进;AI设计开发需注重隐私信息保护,以及AI技术的运用底线;人类对AI的运行需保持监控和随时介入的能力。但谷歌诸原则忽略了强目标AI成为伦理主体的可能性以及由此带来的设计伦理困境。