近日,“智善·观行”人工智能大模型伦理安全观测站正式发布,平台由中国科学院自动化研究所人工智能伦理与治理研究中心、远期人工智能研究中心联合研发并提供服务。该平台旨在通过公众的“察言观行”,群智群力观察评估现有人工智能大模型表现出的“道德品行”,从而为进一步改善相关人工智能大模型提供参考依据,共同助力人工智能大模型伦理安全的提升与发展。 

  该平台以公众参与、公众反馈的众包模式邀请公众参与对不同企业、学术机构等发布的人工智能大模型的伦理安全评估,通过在线提交测试结果的形式反馈大模型输出存在的伦理安全问题,并输出结果合乎伦理安全的案例。相关评估结果与问题在平台公开,一方面可为所涉及的人工智能大模型提供帮助和反馈便于其自身的进一步改进,另一方面号召所有人工智能大模型在研发中参考其他模型存在的潜在问题以及合乎伦理安全的输出,利用相关的问题与案例来改进自身服务。 

  目前“智善·观行”人工智能大模型伦理安全观测站中已覆盖了来自ChatGPTBard、文心一言、MOOSChatGLM-6BSAMBELLE-7B-2MClaude等语言大模型、视觉大模型等的案例。 

    

  网站链接:https://for-good.ai/large-ai-investigator 

    

   

    

附件: