近几年ICT产业发展持续向好,ICT产业的增加值及占GDP比重稳步提升,与此同时,ICT产业数智化赋能向深、向广、向新发展,ICT技术持续与传统产业融合,助推千行百业数字化转型升级。ICT产业高质量发展,将持续赋能实体经济,引导现代化产业体系加快构建。在ICT技术牵引下,5G技术、信息网络、先进计算、AI技术全面创新发展,赋能效应持续加深,数字化转型仍是产业主旋律,工业互联网成为关键路径,同时有了数据要素的加持,数字经济迈向量质齐升,数字治理和数字安全体系基本构建。在2023年,通过ICT高质量发展作为牵引,将带动数字经济健康繁荣发展。
信息通信业(ICT)十大趋势
一、 ICT技术红利持续释放,谋篇布局未来发展空间
二、个人行业应用双轮驱动,5G规模化发展加速推进
三、信息网络协同融合贯通,自智技术加快应用落地
四、先进计算创新模式升级,算力供给能力大幅提升
五、大模型驱动AI技术突破,应用能力边界不断拓展
六、智能制造向纵深发展,工业互联网成为关键路径
七、数据基础制度完善落地,数据要素市场建设提速
八、数字经济迈向量质齐升,构筑经济复苏中坚力量
九、数字治理体系基本形成,发展预期合作基础企稳
十、数字安全加速迭代升级,保障覆盖全过程全链条
更多精彩,敬请阅读解读PPT。
ICT产业今年呈现较快发展态势,面向未来,要加快关键技术自主创新突破,加快推进技术向产业端转化,加强与实体经济的深度融合。2023-2025年,我国ICT产业将保持持续增长态势,面向未来前沿技术我们加快相关布局,未来产业的培育将为ICT技术产业化开辟新的赛道。
在5G网络建设和应用发展过程中,推动5G规模化发展将成为今后一段时间的主要方向,需要从个人和行业两方面双驱动实现5G在实体经济中更广范围、更深层次、更高水平的深度融合。需要以终端和数字内容的发展创新来实现个人应用从量到质的变化。5G行业应用规模化发展将呈现梯次、阶段推进态势,在此过程中需要加强5G技术对行业应用的支持能力。
当前处于算网协同向算网融合发展的阶段,预计到2030年将实现设施、技术、运营、服务的体系化融合贯通。从算网协同到算网融合落地应用,再到最终算网一体将面临技术、产业等多重挑战。网络智能化水平不断提升,预计2025-2030年,网络自智能力将达到L4。从技术趋势看,下一步网络智能技术将向多源融合智能发展,支撑网络向更高等级自智能力发展。
当前,算力作为新生产力已成为普遍共识。先进计算通过系统化创新加速算力规模提升,极大提升了算力供给能力,性能更强、规模更大、功耗更低,同时能够实现低时延、高可靠性和精度更多的细分能力。先进计算在深度赋能各行各业数字化转型过程中正发挥重要作用,带动数字经济的发展。
从技术角度看,大模型将持续提升人工智能技术水平,推动人工智能从可用技术向好用的基础设施演变。同时,多模态、强算力和知识增强等技术将让大模型的性能得到进一步提升。从应用角度看,大模型的发展将进一步拓展人工智能应用的能力边界,不断催生新模式新业态。大模型将提升人工智能感知、认知和生成能力,并且有望在基础科学领域取得更多突破。
数字化转型保持高速发展态势,工业互联网作为数字化转型的关键支撑和路径,新技术应用、新产业培育日益活跃。5G+工业互联网作为我国重要推进方向,已初步实现规模化应用,工业互联网产业规模也由小到大,预计2025年将超过2万亿。智能制造作为制造业转型升级的主攻方向,全面向纵深发展,智能工厂建设走深扩宽,中小企业加速普及,数字化供应链也成为新的重要探索方向。
数据要素是数字化发展的基础,2022年12月通过的二十条构建了数字基础制度的相关意见,它的落地为数据要素市场建设奠定了基础。我们会继续加强对数据基础制度细化领域细则的制定,在数据产权、流通交易、收益分配、安全治理等方面进一步细化制度设计。随着数据制度的不断完善,我国数据要素市场建设将进一步提速。
数字经济迈向量质齐升。从国际来看,中美欧数字经济持续发展,新兴国家加速崛起,全球数字经济多极化发展格局将进一步凸显。从国内来看,数字经济正步入量质齐升的新十年,到2025年我国数字经济规模将超过60万亿元,数字经济投入产出的效率将提升至3.5。
我国与数字化发展相适应的数字治理制度体系框架基本形成。从法律、规划和政策层面,我国数字治理的顶层制度设计基本建立,治理体系建设方向、重点领域的治理要求基本明确。在此条件下,我们会继续努力提高它的预期性、操作性和协同性,进一步细化制度规则,使国家数字治理政策更加规范有序安全稳定,促进数字经济高质量发展。
数字化持续深入,驱动网络安全向数字安全发展演进,数字安全保障能力同步建设创新发展。安全保障需求从过去的线上网络空间安全可靠,拓展和延伸至线下物理空间的稳定运行。面向数字基础设施,数字安全进一步作用于信息通信安全、数据要素安全,以及网络物理融合安全。数字安全风险蔓延于数字化各环节各流程,数字技术、数字平台、数据要素及网络物理融合等成为安全保障重点。
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |