孙金龙(居中)组织党员进行调查研究,广泛收集基层官兵的意见建议。 黄振宇 摄
转型:学会领兵打仗
2019年,担任“济南英雄连”连长后,孙金龙开启了一段新的冲锋。体能素质和轻武器射击一直都是这支连队的强项,出身于侦察专业的孙金龙也是这些课目的“行家里手”。“可是真正走上岗位,我才发现困难远比想象中的大。”
彼时,孙金龙履新才一个多月,连队在旅组织的连战术考核中成绩垫底,不仅他这位连长的指挥决策、战术运用被判定不合格,连队各级指挥员的协同配合意识也存在较大差距。“本次演练失利的主要原因在我,作为连长进入情况慢、指挥调控不力,请各位对我和连队的训练提出宝贵建议。”复盘总结会上,孙金龙首先做出反省,官兵们也纷纷打开了话匣子。
“每天除了练长跑,就是练力量,这样怎么能把战术练好?”“体能、射击固然要练,但不能挤占战术训练、专业协同训练的时间。”“现在我们是装步连了,如果只守着传统优势,肯定要被时代淘汰。”
官兵们的一番“吐槽”让孙金龙意识到,以往在体能、射击的比武场上,自己只顾一个人冲、一个人拼。但现在作为一名连长,能不能带领全连官兵打赢战争,才是他最需要研究的问题。
第二天,孙金龙召集连队干部骨干议战议训。从连长到战士、从指挥技能到专业技能,他们逐条逐项梳理能力短板,拉单列表制订补差训练计划。孙金龙立下“军令状”,60天内将所有课目练到良好以上。
从此,“白加黑”成为这位新晋连长的工作常态。白天,他铆在训练场上练打法;晚上,他“闷”在会议室里研战法;学习研究战时可能配属连队的作战力量和武器装备,对协同指挥、加入时机、作战效能等事项做到心中有数、灵活运用。不到2个月的时间,孙金龙已经可以熟练进行连队战术指挥作业。
转型发展带来了战斗力的提升。今年7月初,旅组织装甲步兵连贯射击考核,孙金龙担任炮长首发命中靶标,全连官兵也稳定发挥,最终取得全旅建制连第一名的成绩。
演训期间,孙金龙(左)指挥班组向“敌”一线阵地发起进攻。 黄振宇 摄研战:登上战斗力“塔尖”
班长马苗苗是连队的“战术王子”,一次他在新兵面前亮起了“绝活”:快速蛇形跃进中一个反身卧倒,在地上滑出5米多,紧接着据枪瞄准。漂亮的战术动作引得新兵一阵叫好,旁观的孙金龙却皱起了眉头。
“从观赏性讲挑不出毛病,”孙金龙说,“可是反身卧倒的战术目的是要打击后方敌人,滑行时间过长影响出枪速度,可能就一秒钟,敌人把你干掉了。”
以后的战术训练中,连队官兵不再比谁的动作更潇洒,而是比谁出枪更快、战术动作更符合实战。立起胜战标尺,“准星”瞄向战场,摔打锤炼出来的才能是真正的打赢本领。
自担任连长那天起,孙金龙就决心让连队登上战斗力的“塔尖”。在他看来,树立信息化条件下的战斗力标准,不能身子进入信息化,头脑却仍停留在机械化。当得知旅里的兵棋系统可对战争全程进行仿真、模拟和推演时,孙金龙眼前一亮:“这种人机结合的战术推演,恰好是解决我们问题的金钥匙。”
在掌握了兵棋系统的作战计算、裁评规则等基本原理后,孙金龙立即在连队推广运用兵棋系统,建立起包括多种复杂对抗条件、多种不同作战对象等在内的想定作业数据库,可对战场上人员伤亡、装备损耗、火力打击效果影响、不同规模和兵种间战争伤亡消耗数据进行裁决,为战术战法评估和研究提供了准确的数据支持。
今年野外驻训期间,面对装备升级换代,孙金龙抓住契机创新战法训法,每天将官兵拉至陌生地域,磨砺专业技能、锤炼战术协同。全连官兵同心协力,白天上装练操作,晚上加班学理论。
渐渐地,连队官兵身上的“战味”更浓了,“茧最厚、疤最多、脸最黑、衣服最破”成了他们特有的“荣誉符号”。在孙金龙的带领下,连队连续3年培养出3名集团军优秀教练员,25人在各级比武竞赛中摘金夺银,5人在职业技能鉴定中取得高级资格,11人考取乘员专业一级,全连定级考评率达到100%。
谈起当选党的二十大代表,这位“钢钉连长”说:“在强军兴军的伟大征程中,我愿做一颗永不生锈的‘钢钉’,守住初心、铆在战位,和连队官兵一起争取新荣誉,创造新荣光。”(完)
人工智能如何做到可信、可用?专家热议:把责任归结到个人****** 中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短? 近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。 中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。 “因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。 清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。 “技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。 瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。 “但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。 将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候? 高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。 高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。” “在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。 “在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。 2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
|