人工智能

什么?还在傻傻地手写Parcelable实现?

缘起 序列化已经是Android司空见惯的东西了,场景太多了。就拿Intent来说吧,extra能放的数据,除了基本类型外,就是序列化的数据了,有两种: Serializable:Java世界自带的序列化工具,大道至简,是一个无方法接口 Parcelable:Android的官配序列化工具 这二者在性能、用法乃至适用场景上均有不同,网上的讨论已经很多了,这里不再赘述。 下面来看看官配正品

【kafka】为什么kafka中的分区数只能增加不能减少?

当一个主题被创建之后,依然允许我们对其做一定的修改,比如修改分区个数、修改配置等,这个修改的功能就是由kafka-topics.sh脚本中的alter指令所提供。 我们首先来看如何增加主题的分区数。 以前面的主题topic-config为例,当前分区数为1,修改为3: 注意上面提示的告警信息:当主题中的消息包含有key时(即key不为null),根据key来计算分区的行为就会有所影

【kafka】kafka管理之修改topic副本数

如下示例将主题foo的分区0的复制因子从1增加到3。 在增加复制因子之前,该分区的唯一副本存在于broker.id为5的节点上,我们将在broker.id为6和7的节点上各增加一个副本。 参考    Kafka——副本(Replica)机制 kafka 调整pa

数据分析看板不会做?试试这些分析看板

在这信息爆发式增长的时代,企业应用场景的多元化,数据分析的重要性也日益显现。因此,管理者希望在日常的工作中能通过分析数据,来达到改善业务的目的。但在数据分析的过程中并不太“顺利”,比如: 1、数据分析浮于表面。当管理层想要了解某些问题发生的明细,但现有的数据分析报表难以深入挖掘分析数据的价值,且一些报表只有汇总数,难以直接钻取到明细数据。 2、数据分析滞后性。主要体现在数据获取与更新方面。当管理层

数据版本发布计划

以前曾经经理有一些失败的经验,例如通过长期数据沉淀发现,在数据分析阶段沉淀的数据实际上没有办法支撑分析,还有就是某个项目为了一个目的进行数据建模与分析,结果经过长时间努力,数据只用了一次,然后就弃置不用了,下一次分析,又要重头开始搞数据。 为此,我觉得还是讲数据治理与数据分析作为2个单独的循环进行比较好,当然也要及时进行交互与迭代。 关于数据发布,我觉得要做到迭代模式,也就是定期向组织内部进行数

毛虫和瓢虫2——简单分类器,一小步的威力

上文讲到,毛虫与瓢虫的分类器,如果每次按照输入的新样本与原分类直线的误差进行斜率调整,都会导致一个严重的问题:似乎之前训练的样本带来的效果消失了,仅仅留下了最新样本带来的收益。这样的话,那么多样本还有什么意义呢? 所以,要找一个办法来规避这个问题。 其实方法非常简单,就是你别因为一个新样本变化那么大,只用以一个小比例来挪动一下斜率,向着好的方向走一点,那么每次一小步,成功一大步(好像

单细胞 & 空间整合去批次方法比较

作者,追风少年i hello,大家好,没有最好,只有更好,因为单细胞这张关系网越来越大了。 今天继续回答粉丝提出的问题,关于多样本整合方式的问题,方式有很多种,我先把常见的列举出来,我们一一讨论。 常规方式:下面代码为官方代码,大家应该看过,每个样本进行预处理,找高变,整合的时候选择共有的高变基因 ifnb.list <- SplitObject(ifnb, split.by = "s

C#:Form窗体绘制ROI实例

《学习OpenCV(中文版)》 作者:(美)布拉德斯基(Bradski,G.) (美)克勒(Kaehler,A.) 著 出版社:清华大学出版社 出版时间:2009年10月 参考资料:

clickhouse-HDFS

参考文档 前言 在hdfs格式ck能解析的情况下,比如CSV,TSV等,可以在ck中建立一个映射表。读取hdfs中的数据,使用ck来分析。需要注意的是如果uri路径中包括了Globs模糊匹配符号,那么说明ck只是映射hdfs中的文件,是只读的。如果写入会

多重检验矫正p值

因为P值的阈值是人为规定的,无论是多小的P值,也仅仅能代表结果的低假阳性,而非保证结果为真。如果检验一次,犯错的概率是5%;检测10000次,犯错的次数就是500次,即额外多出了500次差异的结论(即使实际没有差异)。即使P值已经很小(比如0.05),也会被检验的总次数无限放大。比如检验10000次,得到假阳性结果的次数就会达到 5%*10000=500次。 这时候我们就需要引入多重检验来进行校正