规避数据泄露风险 韩国政府提出自研AI基础设施

发稿时间 2023-05-05 12:24
"AI, 정부가 써도 될까?" 우려 커져…AI 정부 인프라 구축 제언도


 

为了防止数据泄露,三星等多家大企业目前已限制在公司内部使用AI人工智能。随着Chat GPT等生成式人工智能工具应用开始普及,AI在改变工作方式的同时,越来越多的企业及政府机构意识到保护隐私的紧迫性,制定出合理的隐私规范迫在眉睫。

据相关业界5日消息,韩国国家情报院在各部门使用人工智能GPT系列时,要求除公开信息不得输入其他数据。信息通信部等部门也要求员工秉持“不揭露信息”、“不分享隐私”原则。

开发深度学习算法(DL,Deep Learning)的前谷歌科学家杰弗里·辛顿,在业界被称之为“人工智能教父”,他在谈及AI的风险性时,称对自己在人工智能领域所付出的贡献感到懊悔。

政府此前考虑引进AI数字平台设施,但考虑到目前AI趋势,认为很难在公共业务上使用AI处理信息,表示应当自主开发建设可控AI模型基础设施。

韩国智能信息社会振兴院(NIA)AI未来战略中心首席研究员尹昌熙(音)在《大规模语言模型为基础的公共领域AI引进方向》报告中表示,包括敏感信息在内的国家信息,需要以‘GOV-GPT’的形式自主开发AI模型,并使用命令语言进行控制,建立混合型方案,防止公共部门敏感信息泄露。

政府建议如NAVER自研推出的HyperCLOVA X等民间AI模型使用政务云平台(Government Cloud)而非公共大数据平台(API)。

报告中强调,以公共为目的的超大型AI在业务效率性、准确性上是不可或缺的服务,政府应当通过自主研发AI及政务云平台,维持政府各部门、地方自治团体、公共机关的数据安全,有效管理资源隐私。

《 亚洲日报 》 所有作品受版权保护,未经授权,禁止转载。

기사 이미지 확대 보기
닫기
TOP