“女蛙王”的新愿望******
新华社石家庄1月10日电(记者杨帆)早上五点半,丁继萍就在泳池边了。
打开计时器,戴上老花镜,摊开训练日志本,逐个布置队员的训练内容。随着一声响亮的“预备、走”,队员们先后跃入池中,开始7000米距离的水上训练。
1月7日,丁继萍早起在泳池开始工作。
场边一举一动都带着劲头的丁继萍,今年62岁。年轻时她做过游泳运动员,8年职业生涯中屡获佳绩,被誉为“河北蛙王”。退役后,丁继萍来到教练员岗位上,为国家培养输送了大批优秀运动员。
“女蛙王”走上游泳道路很偶然。14岁时,一次丁继萍在省游泳馆玩耍被业余游泳培训班的教练相中,才开始系统参与游泳训练。起步晚,意味着需要付出更多努力,经年累月也培养了她能吃苦、能突破的劲头。
1980年9月,丁继萍在上海参加全国游泳锦标赛。
2016年,河北省体育局大胆试水改革,河北省体育局游泳跳水运动中心联合衡水泰华锦业房地产有限公司共同创建河北泰华锦业游泳队,同年成立了基地设在衡水市市郊的河北泰华锦业游泳俱乐部(以下称泰华俱乐部),以期在泳池内实现突破。
1月7日,泰华俱乐部游泳馆内景。
正是那一年,已到退休年纪的丁继萍,开启了人生的另一个偶然,她决定随河北省游泳队来到俱乐部,一把年纪成了开拓者。丁继萍说:“我们一家人常年两地分居,都盼着我退休回家休息。但我觉得还能干,能在教练岗位上有更高突破。”
河北省体育局游跳中心负责人介绍,丁继萍作为优秀专业教练,带过各年龄段的孩子,技术扎实、经验丰富,最终确定她作为俱乐部二线队主教练。
记者采访了解到,泰华俱乐部二线队队员年龄集中在9-12岁,这个阶段青少年身心发育尚不充分,不仅需要教练员在场上科学指导,还需要场下悉心照顾。
丁继萍说:“孩子们常年跟着我,比跟父母的时间还长,我们建了个微信群叫‘丁奶奶的大家庭’,每天督促他们学习生活,他们有什么小秘密也会和我说。”
1月8日,丁继萍在泳池边辅导队员。
18岁的队员周存鑫跟着丁继萍训练已有一年时间,在此期间达到了国家一级运动员水平。但刚来队里时,周存鑫曾因完不成训练任务而懈怠退缩。
“丁教练发现后单独找我谈话,拿她当年训练的故事激励我,告诉我‘咬牙坚持是运动员的一个宝贵品质’。”那次谈话后,周存鑫努力训练,成绩突飞猛进。
正是在丁继萍等一批老中青教练携手努力之下,俱乐部迎来突破:队员李冰洁、张一璠在东京奥运会女子4×200米自由泳接力项目上夺冠并打破世界纪录;第15届短池游泳世锦赛上,李冰洁在女子800米、400米自由泳项目夺金。
2021年7月29日,东京奥运会游泳项目女子4×200米自由泳接力决赛,中国队打破世界纪录并夺冠,中国队选手杨浚瑄、汤慕涵、张雨霏、李冰洁(从左到右)在颁奖仪式后合影。新华社记者夏一方摄。
泰华俱乐部总经理康靖介绍:“竞赛层面之外,近几年俱乐部深入贯彻体教融合政策,引入衡水当地优质文化教育资源,孩子们的学习教育得到有力保障。丁继萍的多名队员以成绩优异考入大学,她获得了广大家长的肯定。”
随着寒假和春节即将到来,最近有很多省区市游泳队前来泰华俱乐部训练,丁继萍说自己“已经顾不上惦记过春节了”。“新年有个新愿望——能精力充沛工作。现在孩子们成长进步的路子更宽,我想培养更多苗子,帮他们在泳池内外有所成就。”她说。
图片:除标注外均为受访单位提供
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |