asc

从壹开始前后端分离【 .NET Core2.2/3.0 +Vue2.0 】框架之八 || API项目整体搭建 6.3 异步泛型仓储+依赖注入初探

旧时模样 提交于 2020-01-02 01:58:43
本文3.0版本文章 本文涉及的内容,同样适用于3.0版本,不用修改。 回顾 1、Sqlsugar 的使用   在上文中,遇到了大家见仁见智的评论和批评,嗯~说实话,积极性稍微受到了一丢丢的打击,不过还好,还是有很多很多很多人的赞同的,所以会一直坚持下去,欢迎提出各种建议,问题,意见等,我这个系列呢,只是一个抛砖引玉的文章,大家可以自定义的去扩展学习,比如你看了.net core api,可以自学.net core mvc呀;看了sqlsugar,可以自学EFCore,Deppar呀;看了vue,可以自学React、Angular呀,我希望起到的是一个志同道合的作用,而不是情绪的宣泄场所。🌹   书接上文,《 框架之七 || API项目整体搭建 6.2 轻量级ORM 》,在文中,我们提到了Sqlsugar,该框架呢我也是咨询了身边的一些大佬,他们给我说法是: Sqlsugar 和 EFCore 一样,只是一个表达式树,不用写sql,但是支持sql,支持多种类型数据库(MSSQL,Oracle,Mysql,SQLite),配置简单; 仅仅是一个数据访问层,100k轻量级,方便迁移; 而且也要看自己公司需要,我司项目也用EFCore ,当然也有部分用的是 SqlSugar,不存在孰优孰劣;   关于速率呢,我简单的做了一个测试,使用公司的数据表,一共4千万条数据,我遍历全表

Row_Number实现分页

删除回忆录丶 提交于 2019-12-26 16:03:36
1:首先是 select ROW_NUMBER() over(order by id asc) as 'rowNumber', * from table1 生成带序号的集合 2:再查询该集合的 第 1 到第 5条数据 select * from (select ROW_NUMBER() over(order by id asc) as 'rowNumber', * from table1) as temp where rowNumber between 1 and 5 完整的Sql语句 declare @pagesize int; declare @pageindex int; set @pagesize = 3 set @pageindex = 1; --第一页 select * from (select ROW_NUMBER() over(order by id asc) as 'rowNumber', * from table1) as temp where rowNumber between (((@pageindex-1)*@pagesize)+1) and (@pageindex*@pagesize) set @pageindex = 2; --第二页 select * from (select ROW_NUMBER() over(order by id asc) as

Row_Number实现分页

﹥>﹥吖頭↗ 提交于 2019-12-26 16:03:05
1:首先是 select ROW_NUMBER() over(order by id asc) as 'rowNumber', * from table1 生成带序号的集合 2:再查询该集合的 第 1 到第 5条数据 select * from (select ROW_NUMBER() over(order by id asc) as 'rowNumber', * from table1) as temp where rowNumber between 1 and 5 完整的Sql语句 declare @pagesize int; declare @pageindex int; set @pagesize = 3 set @pageindex = 1; --第一页 select * from (select ROW_NUMBER() over(order by id asc) as 'rowNumber', * from table1) as temp where rowNumber between (((@pageindex-1)*@pagesize)+1) and (@pageindex*@pagesize) set @pageindex = 2; --第二页 select * from (select ROW_NUMBER() over(order by id asc) as

Progressive Self-Supervised Attention Learning forAspect-Level Sentiment Analysis论文阅读

你。 提交于 2019-12-23 03:07:08
Progressive Self-Supervised Attention Learning forAspect-Level Sentiment Analysis翻译及理解 1.本文针对神经网络在学习过程中存在的强模式过学习和弱模式欠学习的问题,提出了渐进自监督注意力机制算法,有效缓解了上述问题。主要基于擦除的思想,使得模型能够渐进的挖掘文本中需要关注的信息,并平衡强模式和弱模式的学习程度。在基于方面层次的情感分析三个公开数据集和两个经典的基础模型上测试表明,所提出的方法取得了不错的性能表现。 2.在方面层次的情感分类任务中,经典方法为使用注意力机制来捕获上下文文本中与给定方面最为相关的信息。然而,注意力机制容易过多的关注数据中少部分有强烈情感极性的高频词汇,而忽略那些频率较低的词。 摘要 在方面级别的情感分类(ASC)中,普遍的做法是为优势神经模型配备注意机制,以便获得给定方面每个上下文词的重要性。 但是,这种机制倾向于过分关注少数带有情感极性的频繁单词,而忽略了很少出现的单词。 本文提出了一种针对神经ASC模型的渐进式自我监督注意学习方法,该方法会自动从训练语料库中挖掘有用的注意监督信息,以细化注意机制。特别是,我们对所有训练实例进行 迭代的情感预测 。 将具有最大注意力权重的上下文单词提取为对每个实例的正确/不正确预测具有积极/误导性影响的上下文单词

死锁

我与影子孤独终老i 提交于 2019-12-19 16:34:12
| InnoDB | | ===================================== 2019-12-08 21:14:46 7f46fabe3700 INNODB MONITOR OUTPUT ===================================== Per second averages calculated from the last 54 seconds ----------------- BACKGROUND THREAD ----------------- srv_master_thread loops: 74 srv_active, 0 srv_shutdown, 20726 srv_idle srv_master_thread log flush and writes: 20800 ---------- SEMAPHORES ---------- OS WAIT ARRAY INFO: reservation count 149 OS WAIT ARRAY INFO: signal count 149 Mutex spin waits 48, rounds 1440, OS waits 42 RW-shared spins 108, rounds 3220, OS waits 107 RW-excl spins 0, rounds

汇编语言(二)之将十进制数的ASCⅡ码转换为BCD码

爷,独闯天下 提交于 2019-12-16 01:13:46
题目要求 从键盘输入五位十进制数的ASCⅡ码,存放于3500h其实的内存单元中,将其转换为BCD码后,再按位分别存入350Ah起始的内存单元内。若输入的不是十进制ASCⅡ码,则对应存放结果的单元内容为FF。 代码 .model small .data org 3500h;从3500h开始作为变量的首地址 num1 db 31h,32h,33h,34h,35h org 350ah num2 db 5 dup(0) .code start: mov ax,@data mov ds,ax;之后数据全部数据堆栈 mov si,offset num1;3500地址给offset mov di,offset num2 mov cx,5; change: mov al,[si] cmp al,39h ja iserror cmp al,30h jb iserror sub al,30h mov [di],al;mov [350ah],al jmp changeloop iserror: mov bx,0ffh mov [di],bx changeloop: add si,1 add di,1 loop change mov ah,4ch int 21h end start 运行截图 来源: CSDN 作者: 少年豪放Star 链接: https://blog.csdn.net

编程随笔-ElasticSearch知识导图(5):聚合

心不动则不痛 提交于 2019-12-13 10:24:49
1. 聚合模式   聚合(Aggregations)是对数据库中数据域进行统计分析的手段,关系数据库中我们常会用到avg,sum,count,group by这些聚合手段进行简单的统计与分析。在ES中也提供了同样的功能,根据使用模式,分为以下几种: 数字指标(metrics)聚合:根据输出的是单值的还是多值的分为单值数字指标与多值数字指标,计算使用的域可直接从文本中抽取也可使用脚本生成。 分组(bucket)聚合:分组聚合创建文档对象的分组。每个分组都与一个分组依据 (凭证)相关联(取决于聚合类型),该依据确定当前上下文中的文档是否“属于”其中。分组聚合还计算并返回每个分组中文档数量。分组聚合可以嵌套,即一个分组中还可以定义子分组。分组聚合支持对父子关系对象和嵌套对象的聚合。 管道(Pipeline)聚合:处理来自其它聚合的数据,而不是直接计算文档对象的域值得到输出。管道聚合可以分为两类: 父(parent)聚合:一组管道聚合的输入数据由其父聚合的输出提供,能够计算新分组或新聚合添加到现有组中。 兄弟(sibling)聚合:输入数据由同级聚合的输出提供,新产生的聚合域与所使用的输入聚合同级。   文献1中还提到了矩阵(Matrix)聚合,它对多个字段进行操作,并根据字段值生成一个矩阵结果,该矩阵是对这些字段的一些统计数据。因为比较小众,本文中不做讨论。   数字指标聚合

order by中处理null

三世轮回 提交于 2019-12-10 04:36:49
【Oracle 结论】 order by colum asc 时,null默认被放在最后 order by colum desc 时,null默认被放在最前 nulls first 时,强制null放在最前,不为null的按声明顺序[asc|desc]进行排序 nulls last 时,强制null放在最后,不为null的按声明顺序[asc|desc]进行排序 【MySql 结论】 order by colum asc 时,null默认被放在最前 order by colum desc 时,null默认被放在最后 ORDER BY IF(ISNULL(update_date),0,1) null被强制放在最前,不为null的按声明顺序[asc|desc]进行排序 ORDER BY IF(ISNULL(update_date),1,0) null被强制放在最后,不为null的按声明顺序[asc|desc]进行排序 组函数AVG()算NULL值:select AVG(IFNULL(field,0)) from table; 来源: oschina 链接: https://my.oschina.net/u/554240/blog/202749

python实现csv格式文件转为asc格式文件

百般思念 提交于 2019-12-08 19:21:41
一、背景描述 csv格式文件是一种类似于excel的文件格式 asc格式文件是一种可以用text打开的文本文件 csv转asc本来可以用arcgis顺利完成,但由于csv数据量太大(744万行),arcgis处理不了如此大的文本,所以需要通过写代码实现(注:不是用python调用arcgis工具) 二、格式说明 Csv格式: 说明:第一列为id,第二列是值,第三第四列为值所在的行列号;csv的数据共744万行,直接打开无法全部加载 asc格式: 三、举例 需要的是将csv对应的某行某列的值prevalue,写成asc格式的文件,检验是否成功转换的方式:将转成的asc文件加载到arcmap中进行查看,如上面的aspect.asc在arcmap中是下图所示: 四、附件说明 附件中给出是一个用作示例的csv,以及上文提到的aspect.asc,用作参考 其实这个小程序的要求简单来说就是把csv数据逐行读取,然后对应地写成asc格式的文件,关键在于对asc文件格式的理解,希望在看了上述说明后,确定了解asc格式后再进行下一步的操作。 注:在arcmap中,csv转asc是这样实现的:通过创建xy事件图层,将csv转shp(此时的csv中prevalue后面是xy坐标,这里我已经将坐标转为行列号row、col了),随后通过要素转栅格工具,将shp转为栅格,最后用栅格转asc工具

Spark非常实用的窗口函数

强颜欢笑 提交于 2019-12-08 08:17:37
spark 累加历史主要用到了窗口函数,而进行全部统计,则需要用到rollup函数 1 应用场景: 1、我们需要统计用户的总使用时长(累加历史) 2、前台展现页面需要对多个维度进行查询,如:产品、地区等等 3、需要展现的表格头如: 产品、2015-04、2015-05、2015-06 2 原始数据: product_code event_date duration 1438 2016-05-13 165 1438 2016-05-14 595 1438 2016-05-15 105 1629 2016-05-13 12340 1629 2016-05-14 13850 1629 2016-05-15 227 3 业务场景实现 3.1 业务场景1:累加历史: 如数据源所示:我们已经有当天用户的使用时长,我们期望在进行统计的时候,14号能累加13号的,15号能累加14、13号的,以此类推 3.1.1 spark-sql实现 //spark sql 使用窗口函数累加历史数据 sqlContext.sql( """ select pcode,event_date,sum(duration) over (partition by pcode order by event_date asc) as sum_duration from userlogs_date """).show +-----