pax

绕过CAR-T“战场”,直接基因编辑B细胞治疗肿瘤、艾滋病?全球首家相关初创获众多资本青睐

与世无争的帅哥 提交于 2020-10-26 08:31:55
  CAR-T细胞疗法在血液瘤领域的“大展拳脚”,让工程T细胞成为免疫肿瘤学领域的重要研究对象。但现在,一家来自美国生物技术产业聚集地——剑桥市的初创公司Be Biopharma正在挖掘工程B细胞的治疗潜力。在Be Biopharma联合创始人、总裁兼董事埃里克斯·拉迪维奇·莫雷诺(Aleks Radovic-Moreno)博士看来, 工程B细胞将是细胞疗法的未来。    2020年10月22日,Be Biopharma宣布获得5200万美元A轮融资,该公司计划将利用这笔资金来挖掘工程B细胞治疗多种疾病的潜力。阿列克斯·拉迪维奇·莫雷诺(Aleks Radovic-Moreno)博士谈到B细胞的潜力时说:“我们的使命是开发一种具有广泛新药理学的新型细胞药物。我们认为, B细胞丰富的生物学特性决定了这将是一个巨大的新市场。”    图 | B细胞 (来源: The Scientist)    CRISPR基因编辑B细胞,待掘的“金矿”?   2017年被称为CAR-T细胞疗法的“元年”,诺华的Kymriah和Kite Pharma(吉利德科学旗下公司)的Tecartus相继上市,让CAR-T细胞疗法及工程T细胞成为科学界和医药界重点关注的方向。与此同时,另一种细胞疗法的研究也悄然“萌芽”,那就是针对B细胞的改造。   2017年12月

STM32中断系统(NVIC和EXTI)

☆樱花仙子☆ 提交于 2020-10-08 05:28:58
EXTI EXTI (External interrupt) 就是指外部中断,通过 GPIO 检测输入脉冲,引起中断事件,打断原来的代码执行流程,进入到中断服务函数中进行处理,处理完后,再返回到中断之前的代码中执行。 STM32 的所有 GPIO 都可以用作外部中断源的输入端,利用这个特性,我们可以把按键轮询检测 改为由中断 来处理,大大提高软件执行的效率。 Cortex 内核具有强大的异常响应系统,它把能够打断当前代码执行流程的事件分为异常(exception)和中断(interrupt),并把它们用一个表管理起来,编号为 0~15 的称为内核异常,而 16 以上的则称为外部中断(外,相对内核而言),这个表就称为中断向量表。 而 STM32 对这个表重新进行了编排,把编号从-3 至 6 的中断向量定义为系统异常,编号为负 的内核异常不能被设置优先级,如复位(Reset)、不可屏蔽中断 (NMI)、硬错误(Hardfault)。从编号 7 开始的为外部中断,这些中断的优先级都是可以自行设置的。详细的 STM32 中断向量表见图 ,STM32 中断向量表STM32 的中断如此之多,配置起来并不容易,因此,我们需要一个强大而方便的中断控制器 NVIC (Nested Vectored Interrupt Controller)。NVIC 是属于Cortex 内核的器件,不可屏蔽中断

大数据的下一站是什么?服务/分析一体化(HSAP)

﹥>﹥吖頭↗ 提交于 2020-08-13 16:25:05
云栖号资讯:【 点击查看更多行业资讯 】 在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 既然 HTAP 有了分析的能力,它是不是将取代大数据系统呢?大数据的下一站是什么? 因为侧重点的不同,传统的数据库可以分为交易型的 OLTP 系统和分析型的 OLAP 系统。随着互联网的发展,数据量出现了指数型的增长,单机的数据库已经不能满足业务的需求。特别是在分析领域,一个查询就可能需要处理很大一部分甚至全量数据,海量数据带来的压力变得尤为迫切。这促成了过去十多年来以 Hadoop 技术开始的大数据革命,解决了海量数据分析的需求。与此同时,数据库领域也出现了一批分布式数据库产品来应对 OLTP 场景数据量的增长。 为了对 OLTP 系统里的数据进行分析,标准的做法是把里面的数据定期(比如说每天)同步到一个 OLAP 系统中。这种架构通过两套系统保证了分析型查询不会影响线上的交易。但是定期同步导致了分析的结果并不是基于最新数据,这种延迟让我们失去了做出更及时的商业决策的机会。为了解决这个问题,近几年出现了 HTAP 的架构,这种架构允许我们对 OLTP 数据库里的数据直接进行分析,从而保证了分析的时效性。分析不再是传统的 OLAP 系统或者大数据系统特有的能力,一个很自然的问题是:既然 HTAP 有了分析的能力,它是不是将取代大数据系统呢?大数据的下一站是什么? 背 景

大数据的下一站是什么?服务/分析一体化

吃可爱长大的小学妹 提交于 2020-07-28 12:23:23
作者:蒋晓伟(量仔) 阿里巴巴研究员 因为侧重点的不同,传统的数据库可以分为交易型的 OLTP 系统和分析型的 OLAP 系统。随着互联网的发展,数据量出现了指数型的增长,单机的数据库已经不能满足业务的需求。特别是在分析领域,一个查询就可能需要处理很大一部分甚至全量数据,海量数据带来的压力变得尤为迫切。这促成了过去十多年来以 Hadoop 技术开始的大数据革命,解决了海量数据分析的需求。与此同时,数据库领域也出现了一批分布式数据库产品来应对 OLTP 场景数据量的增长。 为了对 OLTP 系统里的数据进行分析,标准的做法是把里面的数据定期(比如说每天)同步到一个 OLAP 系统中。这种架构通过两套系统保证了分析型查询不会影响线上的交易。但是定期同步导致了分析的结果并不是基于最新数据,这种延迟让我们失去了做出更及时的商业决策的机会。为了解决这个问题,近几年出现了 HTAP 的架构,这种架构允许我们对 OLTP 数据库里的数据直接进行分析,从而保证了分析的时效性。分析不再是传统的 OLAP 系统或者大数据系统特有的能力,一个很自然的问题是: 既然 HTAP 有了分析的能力,它是不是将取代大数据系统呢?大数据的下一站是什么? 背景 为了回答这个问题,我们以推荐系统为例分析一下大数据系统的典型场景。 当你看到购物应用给你展示正好想要买的商品,短视频应用播放你喜欢的音乐时

STM32的GPIO工作原理 | 附电路图详细分析

丶灬走出姿态 提交于 2020-04-28 22:06:34
STM32的GPIO介绍 STM32引脚说明 GPIO是通用输入/输出端口的简称,是STM32可控制的引脚。GPIO的引脚与外部硬件设备连接,可实现与外部通讯、控制外部硬件或者采集外部硬件数据的功能。 STM32F103ZET6芯片为144脚芯片,包括7个通用目的的输入/输出口(GPIO)组,分别为GPIOA、GPIOB、GPIOC、GPIOD、GPIOE、GPIOF、GPIOG,同时每组GPIO口组有16个GPIO口。通常简略称为PAx、PBx、PCx、PDx、PEx、PFx、PGx,其中x为0-15。 STM32的大部分引脚除了当GPIO使用之外,还可以复用位外设功能引脚(比如串口),这部分在【STM32】STM32端口复用和重映射(AFIO辅助功能时钟) 中有详细的介绍。 GPIO基本结构 每个GPIO内部都有这样的一个电路结构,这个结构在本文下面会具体介绍。 这边的电路图稍微提一下: 保护二极管:IO引脚上下两边两个二极管用于防止引脚外部过高、过低的电压输入。当引脚电压高于VDD时,上方的二极管导通;当引脚电压低于VSS时,下方的二极管导通,防止不正常电压引入芯片导致芯片烧毁。但是尽管如此,还是不能直接外接大功率器件,须加大功率及隔离电路驱动,防止烧坏芯片或者外接器件无法正常工作。 P-MOS管和N-MOS管:由P-MOS管和N-MOS管组成的单元电路使得GPIO具有

PaxHeaders in tarball

半腔热情 提交于 2019-12-23 08:51:03
问题 I'm doing a tar like in C, and I've got a problem. I just want to archive and unarchive files and diretory, so I operate this command : tar -cvf NAME.tar FILE1 [FILE2...] Now I'm trying to get the header POSIX of this archive : struct posix_header { /* byte offset */ char name[100]; /* 0 */ char mode[8]; /* 100 */ char uid[8]; /* 108 */ char gid[8]; /* 116 */ char size[12]; /* 124 */ char mtime[12]; /* 136 */ char chksum[8]; /* 148 */ char typeflag; /* 156 */ char linkname[100]; /* 157 */

How to make Pax logging to use the loggback config instead of the standard log4j properties like syntax

心已入冬 提交于 2019-12-20 06:05:32
问题 I have some services in tomcat and trying to move to apache karaf. I have a existing service which uses logback for logging configuration. I tried to make same configuration in osgi, but could not achieve. Any please let me know what could be the problem? org.ops4j.pax.logging.cfg org.ops4j.pax.logging.logback.config.file=${karaf.home}/etc/logback.xml logback.xml is available at ${karaf.home}/etc/ --. Apache Karaf version : 3.0 , pax logging 1.7.1 which is packaged with karaf from build.

Cannot use PAX-URL's assembly protocol with auto started bundles in Felix config.properties

余生颓废 提交于 2019-12-11 00:50:01
问题 I'm trying to use PAX-URL so I can have non-packed bundles assembled on the fly. If I put pax-url-assembly-1.2.1.jar in the autostart bundles, and then type install assembly:path/to/my/folder everything works. The trouble is, I want to give felix those folders in the config file using > felix.auto.start.1=assembly:path/to/my/folder If I do so, I get an "Unknown protocol: assembly" exception. I've tried loading PAX-URL at level 1 and set the default start level of all other bundles to 10. Won

PAX-URL: “Protocol not supported” at Felix's startup

馋奶兔 提交于 2019-12-10 19:55:02
问题 I'm using PAX-URL to launch a Felix based project from Eclipse. I use the assembly protocol to avoid having to pre-pack my bundles. In the project, felix is started using the felix.jar and a config.properties which includes felix.auto.start.1=assembly:foo/bar/classes to start one of my unpacked bundles. The trouble is, felix doesn't know about the pax-url protocols until after it's finished reading that config file, so I get an "Unknown Protocol: assembly" error. What am I doing wrong? Is it

How to make Pax logging to use the loggback config instead of the standard log4j properties like syntax

风格不统一 提交于 2019-12-02 08:24:36
I have some services in tomcat and trying to move to apache karaf. I have a existing service which uses logback for logging configuration. I tried to make same configuration in osgi, but could not achieve. Any please let me know what could be the problem? org.ops4j.pax.logging.cfg org.ops4j.pax.logging.logback.config.file=${karaf.home}/etc/logback.xml logback.xml is available at ${karaf.home}/etc/ --. Apache Karaf version : 3.0 , pax logging 1.7.1 which is packaged with karaf from build. After above configuration change, my karaf.log contents are : Jul 02, 2014 4:21:32 PM org.apache.karaf.main