Ming

第四次作业

这一生的挚爱 提交于 2020-11-29 04:33:32
作业要求: https://edu.cnblogs.com/campus/hljkj/CS201802/homework/2522 观看mooc: 1.我观看了3个视频:数组,二维数组和数组运算,搜索,排序初步 2.我知道了 1)数组一旦创建,就不能更改大小 2)a[0]可以存在但是无用,a[3][5]为3行5列的矩阵 3.对于素数的相关程序掌握不熟,还有对于素数的判断 第十三次作业:7-2 输出所有大于平均值的数 #include <stdio.h> int main() { int n,i; double average,sum= 0 ; scanf( " %d " ,& n); int a[n]; if (n>= 1 &&n<= 10 ){ for (i= 0 ;i<n;i++ ){ scanf( " %d " ,& a[i]); sum =sum+ a[i]; } average =sum/ n; printf( " %.2f\n " ,average); for (i= 0 ;i<n;i++ ){ if (a[i]> average) printf( " %d " ,a[i]); } } else { printf( " Invalid. " ); } printf( " \n " ); return 0 ; } 解题思路: 1.定义变量n,i,sum,average 2

CVPR 2020 论文大盘点-目标检测篇

∥☆過路亽.° 提交于 2020-11-02 02:31:34
本文盘点CVPR 2020 所有目标检测相关论文,总计64篇论文,感觉最大的特点是3D目标检测研究工作很多有21篇,尤其是工业界单位,可能是自动驾驶热带来的。2D目标检测依然很热,神经架构搜索也开始在此领域发力。少样本、跨域的工作也很值得关注,最有意思的可能是伪装目标检测了,值得学习。 已经开源代码的论文,也把代码地址附上了。 大家可以在: http://openaccess.thecvf.com/CVPR2020.py 按照题目下载这些论文。 如果想要下载所有CVPR 2020论文,请点击这里: CVPR 2020 论文全面开放下载,含主会和workshop 3D目标检测 LiDAR-Based Online 3D Video Object Detection With Graph-Based Message Passing and Spatiotemporal Transformer Attention 作者 | Junbo Yin, Jianbing Shen, Chenye Guan, Dingfu Zhou, Ruigang Yang 单位 | 北京理工大学 ;百度; 肯塔基大学 等 代码 | https://github.com/yinjunbo/3DVID Structure Aware Single-Stage 3D Object Detection From

2005考研英语小作文

一笑奈何 提交于 2020-10-28 03:02:33
2005英语写作练习 开始准备写作背诵,早上听了下九宫格写作,准备现学现卖 Directions: Two months ago you got a job as an editor for the magazine Designs & Fashions. But now you find that the work is not what you expected. You decide to quit. Write a letter to your boss, Mr. Wang, telling, him your decision, stating your reason(s), and making an apology. Write your letter with no less than 100 words. Write it neatly on ANSWER SHEET 2. Do not sign your own name at the end of the letter; use "Li Ming" instead. You do not need to write the address. 练习选自王江涛高分写作(略有修改地默写) 方法来源九宫格写作 应用文( 辞职信+道歉信 ) 这是一篇小作文,字数控制100左右 何为九宫格:大体如下(要学会灵活变通使用)

OSChina 周日乱弹 —— 我的美丽星期天还剩下3个小时了

和自甴很熟 提交于 2020-10-18 02:49:39
Osc乱弹歌单(2020)请戳( 这里 ) 【今日歌曲】 小小编辑推荐, 《当你老了 (Live)》- 莫文蔚 手机党少年们想听歌,请使劲儿戳( 这里 ) @ 天小落落 :996的日子真难受,听说996做完项目后还要裁员! 那还愣着干嘛, 赶紧跑啊, 难道等着过劳死啊? 企业家们不在乎这些, @ jackydosuo :把加班说成福报的伪企业家,毫无廉耻。 “不如去培训一下保洁阿姨,然后工资和她三七分。” 现在最高兴的事情就是下班了, @ Xiaoshiyue :哈哈哈哈哈下班! 但是下班后的时间过得太快了! 一眨眼! 就这么点时间, 别人还惦记着呢, @ 野渡无人舟自横 :村里发通知让23岁以上未婚青年报名参加zf组织的七夕相亲交友活动,看来这几年生育率太低了 可是现在不想相亲呀, 我未来再去相亲, “富婆相亲记。” 老了就不会因为对A被嫌弃了啊? @ RYAN_____ :妹子胸口很白,锁骨很漂亮,让人忍不住多看几眼,就是对A,要不起啊 #地铁见闻# 那你地铁遇到了她, 要不要去认识一下? @ Daniel-01 :不行,一楼那妹子刚才又上来了,实在太对我眼了,我不跟她转弯抹角了,直接在钉钉要她微信,肯就肯,不肯就算了。我摊牌了,俺想认识你 “你是对的,去了也是自取其辱 。” 其实你们是一类人的话, 自然就会互相吸引。 @ sund4y :女朋友是我们公司的测试人员

融合自训练和自监督方法,让文本丝般顺滑!|EMNLP 2020

一个人想着一个人 提交于 2020-10-17 16:58:57
     原创作者:王少磊   文本顺滑(Disfluency Detection)的目的是删除自动语音识别(ASR)结果中的不顺滑的词,从而得到更自然和通顺的句子。   目前大部分在文本顺滑(Disfluency Detection)任务上的工作都严重依赖人工标注数据。   本文介绍一篇被EMNLP 2020录取的工作,在本工作中,作者首次尝试用无监督的方法来解决文本顺滑问题。   作者通过结合自训练(self-training)和自监督(self-supervised)两种方法,在不采用任何有标注训练数据的情况下,取得了跟目前最好的有监督方法接近的效果。   论文名称:   《Combining Self-Training and Self-Supervised Learningfor Unsupervised Disfluency Detection》      论文作者:王少磊,王重元,车万翔,刘挺   论文链接:http://ir.hit.edu.cn/~slwang/emnlp2020.pdf   以下是论文一作王少磊对本文的亲自解读。   1   任务简介及动机   自动语音识别(ASR)得到的文本中,往往含有大量的不流畅现象。这些不流畅现象会对后面的自然语言理解系统(如句法分析,机器翻译等)造成严重的干扰,因为这些系统往往是在比较流畅的文本上训练的。  

Maxscale实现Mysql读写分离

北战南征 提交于 2020-10-16 13:21:36
Maxscale实现Mysql读写分离: 注: 1、该工具只有一主,如主出了问题整体会有10s左右不可用(即使从会自动切为主)。 2、读设置的2台实际只生效了1台。 下载地址: https://mariadb.com/downloads/#mariadb_platform-mariadb_maxscale rpm -i maxscale-2.4.9-1.centos.7.x86_64.rpm vi /etc/maxscale.cnf [maxscale] threads=auto [server1] type=server address=10.0.1.3 port=3306 protocol=MariaDBBackend [server2] type=server address=10.0.1.4 port=3306 protocol=MariaDBBackend [server3] type=server address=10.0.1.5 port=3306 protocol=MariaDBBackend [MariaDB-Monitor] type=monitor module=mariadbmon servers=server1,server2,server3 user=aa password=xxxxxx monitor_interval=2000 [Select

持续更新 EMNLP2020 Summarization

99封情书 提交于 2020-10-10 12:53:15
Long Multi-Fact Correction in Abstractive Text Summarization . Yue Dong, Shuohang Wang, Zhe Gan, Yu Cheng, Jackie Chi Kit Cheung and Jingjing Liu. Unsupervised Reference-Free Summary Quality Evaluation via Contrastive Learning. Hanlu Wu, Tengfei Ma, Lingfei Wu, Tariro Manyumwa and Shouling Ji. Multi-document Summarization with Maximal Marginal Relevance-guided Reinforcement Learning. Yuning Mao, Yanru Qu, Yiqing Xie, Xiang Ren and Jiawei Han. MLSUM: The Multilingual Summarization Corpus. Thomas Scialom, Paul-Alexis Dray, Sylvain Lamprier, Benjamin Piwowarski and Jacopo Staiano. Stepwise

ACM MM2020 | 爱奇艺提出卡通人脸识别的基准数据集

為{幸葍}努か 提交于 2020-10-07 02:52:24
摘要 : 本文提出了一个卡通人脸识别的基准数据集i Cart oon Face ,并设计了卡通和真人多任务域自适应策略来提高卡通人脸识别的性能。 论文链接: https://arxiv.org/pdf/1907.13394.pdf 导读: 通过人脸识别技术对视频中的人物信息进行结构化分析,目前已在爱奇艺公司的多个产品中应用,例如“奇观”、“只看他”等,给用户带来了良好的交互体验。为了推动了人脸识别技术的快速发展,爱奇艺在 2018年 、 2019年 相继举办了多模态人物识别竞赛。与此同时,学术界、工业界对卡通人物识别领域的研究较少,为了促进相关研究和带来良好的用户体验,本文提出了 iCartoonFace 卡通识别数据集和对相关算法进行了研究,并成功落地到爱奇艺“奇观”、“逗芽”等产品中。 背景 : 近年来,伴随着卡通产业的迅猛发展,卡通视频呈现出爆炸性增长。而实现对这些卡通视频智能理解的第一步就是需要识别出这些视频里面的卡通人物身份信息。同时伴随着人脸识别技术的发展,人物识别精度大幅提升,在Labeled Faces in the Wild(LFW)等图片数据集上,人脸识别精度甚至超过了人类的识别能力。然而,对卡通人物身份的识别,却鲜有研究,相关的数据集也比较少,如下表1。对于深度学习来说,这些已有的卡通识别数据集存在着数据量较小、噪声比例较大的问题。因此构建一个大规模

###好好好####多模态中的BERT

百般思念 提交于 2020-10-01 22:33:42
image BERT自问世以来,几乎刷新了各种NLP的任务榜,基于BERT的变种也层出不穷,在很多任务里都可以看到其身影。大浪淘沙,沉者为金,回想第一次看到BERT的论文时,确实不曾想其也能对工业界产生极大的影响。 本文尝试梳理今年BERT在多模态任务(主要涉及视觉和文本模态)上的一些工作,尝试比较各工作的主要思路以及做法上的区别,因此不会过多的涉及细节。总的来看,众多工作的主体模型大同小异,均使用Transformer,从表1(引用自VL-BERT论文)可以对各工作之间的相似和不同之处有个整体的认识。 image 可以看到,各方案之间的差异基本在于模态融合方式、预训练任务、以及下游任务微调,下文也将主要从这几个维度展开介绍和对比(排名不分先后)。 VideoBert image VideoBert主体采用单Transformer同时对文本token和视频片段进行模态表示和融合。与BERT区别在于把原来的句子对是否匹配(是否为下一句),换成了句子视频是否匹配任务。同时对于视频片段帧进行随机的MASK,预测对应的特征向量,文中叫visual words(通过预训练的视觉模型抽取得来,如S3D,然后聚类得到相应特征向量的id),对应于BERT的masked语言模型。 CBT image 和VideoBert不同在于,视频输入和文本输入分成了两支。视频输入经过S3D网络得到视觉特征序列