数据结构论坛

首页 » 分类 » 问答 » 校准网的参数困惑,带你回顾ProtoSc
TUhjnbcbe - 2020/12/28 22:28:00
前言

Flink最早期起源于德国柏林工业大学的一个研究项目Stratosphere,直到年4月捐献给Apache软件基金会...

要知道,在年的时候,Filnk几乎没有人知道,更没有人大规模使用它??

而阿里是全球第一批使用Flink做大数据计算引擎研发的公司,年就引入内部,但最早Flink只能支持小流量互联网场景的数据处理。阿里觉得Flink很有潜力,决定进行改造,并把这个内部版本取名Blink,是英文眨眼的意思:“一眨眼,所有东西都计算好了!??

在年双11,Blink就已成功支持全集团(阿里巴巴、阿里云、菜鸟)所有交易数据的实时计算任务,也验证了Flink可以通过改造支持企业大规模数据计算的场景。

目前,国内诸多互联网大厂都已经完全拥抱了Flink。本次的分享就是围绕实时计算Flink和AlibabaCloudRealtimeCompute相关的知识点(能力、限制、典型场景,区别)进行分析。

什么是ApacheFlink?

如何用一句话聊聊什么是ApacheFlink的命脉?

那我的答案可能是:ApacheFlink是以"批是流的特例"的认知进行系统设计的。

就目前最热的两种流计算引擎ApacheSpark和ApacheFlink而言,谁最终会成为No1呢?

单从“低延时”的角度看,Spark是MicroBatching(微批式)模式,延迟Spark能达到0.5~2秒左右,Flink是NativeStreaming(纯流式)模式,延时能达到微秒。

很显然是相对较晚出道的ApacheFlink后来者居上。那么为什么ApacheFlink能做到如此之"快"呢?根本原因是ApacheFlink设计之初就认为“批是流的特例”,整个系统是NativeStreaming设计,每来一条数据都能够触发计算。相对于需要靠时间来积攒数据MicroBatching模式来说,在架构上就已经占据了绝对优势。

那么为什么关于流计算会有两种计算模式呢?

归其根本是因为对流计算的认知不同,是"流是批的特例"和“批是流的特例”两种不同认知产物。

首先,我觉得Flink应用开发需要先理解Flink的Streams、State、Time等基础处理语义以及Flink兼顾灵活性和方便性的多层次API。

Streams:流,分为有限数据流与无限数据流,unboundedstream是有始无终的数据流,即无限数据流;而boundedstream是限定大小的有始有终的数据集合,即有限数据流,二者的区别在于无限数据流的数据会随时间的推演而持续增加,计算持续进行且不存在结束的状态,相对的有限数据流数据大小固定,计算最终会完成并处于结束的状态。

在Spark的世界观中,一切都是由批次组成的,离线数据是一个大批次,而实时数据是由一个一个无限的小批次组成的。

而在Flink的世界观中,一切都是由流组成的,离线数据是有界限的流,实时数据是一个没有界限的流,这就是所谓的有界流和无界流。

State:状态是计算过程中的数据信息,在容错恢复和Checkpoint中有重要的作用,流计算在本质上是IncrementalProcessing(增量处理),因此需要不断查询保持状态;另外,为了确保Exactly-once语义,需要数据能够写入到状态中;而持久化存储,能够保证在整个分布式系统运行失败或者挂掉的情况下做到Exactly-once,这是状态的另外一个价值。

流式计算分为无状态和有状态两种情况。无状态的计算观察每个独立事件,并根据最后一个事件输出结果。-例如,流处理应用程序从传感器接收温度读数,并在温度超过90度时发出警告。

有状态的计算则会基于多个事件输出结果。以下是一些例子:

所有类型的窗口。例如,计算过去一小时的平均温度,就是有状态的计算所有用于复杂事件处理的状态机。例如,若在一分钟内收到两个相差20度以上的温度读数,则发出警告,这是有状态的计算流与流之间的所有关联操作,以及流与静态表或动态表之间的关联操作,都是有状态的计算

Time,分为Eventtime、Ingestiontime、Processingtime,Flink的无限数据流是一个持续的过程,时间是我们判断业务状态是否滞后,数据处理是否及时的重要依据。

EventTime,因为我们要根据日志的生成时间进行统计。

在不同的语义时间有不同的应用场景我们往往更关心事件时间EventTime

API通常分为三层,由上而下可分为SQL/TableAPI、DataStreamAPI、ProcessFunction三层,API的表达能力及业务抽象能力都非常强大,但越接近SQL层,表达能力会逐步减弱,抽象能力会增强,反之,ProcessFunction层API的表达能力非常强,可以进行多种灵活方便的操作,但抽象能力也相对越小。

实际上,大多数应用并不需要上述的底层抽象,而是针对核心API(CoreAPIs)进行编程,比如DataStreamAPI(有界或无界流数据)以及DataSetAPI(有界数据集)。这些API为数据处理提供了通用的构建模块,比如由用户定义的多种形式的转换(transformations),连接(joins),聚合(aggregations),窗口操作(windows)等等。DataSetAPI为有界数据集提供了额外的支持,例如循环与迭代。这些API处理的数据类型以类(classes)的形式由各自的编程语言所表示。

第一:Flink具备统一的框架处理有界和无界两种数据流的能力。第二:部署灵活,Flink底层支持多种资源调度器,包括Yarn、Kubernetes等。Flink自身带的Standalone的调度器,在部署上也十分灵活。第三:极高的可伸缩性,可伸缩性对于分布式系统十分重要,阿里巴巴双11大屏采用Flink处理海量数据,使用过程中测得Flink峰值可达17亿/秒。第四:极致的流式处理性能。Flink相对于Storm最大的特点是将状态语义完全抽象到框架中,支持本地状态读取,避免了大量网络IO,可以极大提升状态存取的性能。

接下来聊聊Flink常见的三种应用场景:

实时数仓

当下游要构建实时数仓时,上游则可能需要实时的StreamETL。这个过程会进行实时清洗或扩展数据,清洗完成后写入到下游的实时数仓的整个链路中,可保证数据查询的时效性,形成实时数据采集、实时数据处理以及下游的实时Query。

搜索引擎推荐

搜索引擎这块以淘宝为例,当卖家上线新商品时,后台会实时产生消息流,该消息流经过Flink系统时会进行数据的处理、扩展。然后将处理及扩展后的数据生成实时索引,写入到搜索引擎中。这样当淘宝卖家上线新商品时,能在秒级或者分钟级实现搜索引擎的搜索。

移动应用中的用户行为分析消费者技术中的实时数据即席查询

在触发某些规则后,DataDriven会进行处理或者是进行预警,这些预警会发到下游产生业务通知,这是DataDriven的应用场景,DataDriven在应用上更多应用于复杂事件的处理。

实时推荐(例如在客户浏览商家页面的同时进行商品推荐)模式识别或复杂事件处理(例如根据信用卡交易记录进行欺诈识别)异常检测(例如计算机网络入侵检测)

接下来就该讲讲ApacheFlink的几点优势:

Flink作为分布式的处理引擎,在分布式的场景下,进行多个本地状态的运算,只产生一个全域一致的快照,如需要在不中断运算值的前提下产生全域一致的快照,就涉及到分散式状态容错。

如果项链上有很多珠子,大家显然不想从头再数一遍,尤其是当三人的速度不一样却又试图合作的时候,更是如此(比如想记录前一分钟三人一共数了多少颗珠子,回想一下一分钟滚动窗口。

于是,我们可以想一个比较好的办法:在项链上每隔一段就松松地系上一根有色皮筋,将珠子分隔开;当珠子被拨动的时候,皮筋也可以被拨动;然后,你安排一个助手,让他在你和朋友拨到皮筋时记录总数。用这种方法,当有人数错时,就不必从头开始数。相反,你向其他人发出错误警示,然后你们都从上一根皮筋处开始重数,助手则会告诉每个人重数时的起始数值。

在执行流应用程序期间,Flink会定期保存状态的一致检查点如果发生故障,Flink将会使用最近的检查点来一致恢复应用程序的状态,并重新启动处理流程遇到故障后

第一步就是重新启动

第二步是从checkpoint中读取状态,将状态重置从检查点重新启动应用程序后,其内部状态与检查点完成时的状态完全相同

第三步:开始消费并处理检查点到发生故障之间的所有数据这种检查点的保存和恢复机制可以为应用程序提供“精确一次”(exactly-once)的一致性,因为所有的算子都会保存检查点并恢复其所有的状态,这样一来所有的输入流就都会被重置到检查点完成时的位置

一种简单的想法暂停应用,保存状态到检查点,再重新恢复应用

Flink的改进实现基于Chandy-Lamport算法的分布式快照将检查点的保存和数据处理分离开,不暂停整个应用

检查点分界线(CheckpointBarrier)

Flink的检查点算法用到了一种称为分界线(barrier)的特殊形式,用来吧一条流上数据按照不同的检查点分开分界线之前来的数据导致的状态更改,都会被包含在当前分界线所属的检查点中;而基于分界线之后的数据导致的所有更改,就会被包含在之后的检查点中

在以上的基础上,当数据源收到CheckpointbarrierN之后会先将自己的状态保存,以读取Kafka资料为例,数据源的状态就是目前它在Kafka分区的位置,这个状态也会写入到上面提到的表格中。

下游的Operator1会开始运算属于CheckpointbarrierN的数据,当CheckpointbarrierN跟着这些数据流动到Operator1之后,Operator1也将属于CheckpointbarrierN的所有数据都反映在状态中,当收到CheckpointbarrierN时也会直接对Checkpoint去做快照。

分布式快照可以用来做状态容错,任何一个节点挂掉的时候可以在之前的Checkpoint中将其恢复。继续以上Process,当多个Checkpoint同时进行,CheckpointbarrierN已经流到Jobmanager2,Flinkjobmanager可以触发其他的Checkpoint,比如CheckpointN+1,CheckpointN+2等等也同步进行,利用这种机制,可以在不阻挡运算的状况下持续地产生Checkpoint。

完整的表格就可以做容错。

算子状态的作用范围限定为算子任务。这意味着由同一并行任务所处理的所有数据都可以访问到相同的状态,状态对于同一任务而言是共享的。算子状态不能由相同或不同算子的另一个任务访问。键控状态是根据输入数据流中定义的键(key)来维护和访问的。Flink为每个键值维护一个状态实例,并将具有相同键的所有数据,都分区到同一个算子任务中,这个任务会维护和处理这个key对应的状态。

Flink为算子状态提供三种基本数据结构….KeyedState支持四种数据类型…

MemoryStateBackend/FsStateBackend/RocksDBStateBackend

JVMHeap状态后端会在每一次运算值需要读取状态时,用Javaobjectread/writes进行读或写,不会产生较大代价,但当Checkpoint需要将每一个运算值的本地状态放入DistributedSnapshots的时候,就需要进行序列化。

在Runtime的本地状态后端让使用者去读取状态的时候会经过磁盘,相当于将状态维护在磁盘里,与之对应的代价可能就是每次读取状态时,都需要经过序列化和反序列化的过程。当需要进行快照时只将应用序列化即可,序列化后的数据直接传输到中央的共享DFS中。

Flink实际上是用Watermarks来实现Event–Time的功能。

Watermarks在Flink中也属于特殊事件,其精髓在于当某个运算值收到带有时间戳“T”的Watermarks时就意味着它不会接收到新的数据了。使用Watermarks的好处在于可以准确预估收到数据的截止时间。

举例,假设预期收到数据时间与输出结果时间的时间差延迟5分钟,那么Flink中所有的WindowsOperator搜索3点至4点的数据,但因为存在延迟需要再多等5分钟直至收集完4:05分的数据,此时方能判定4点钟的资料收集完成了,然后才会产出3点至4点的数据结果。这个时间段的结果对应的就是Watermarks的部分。

Watermark就是触发前一窗口的“关窗时间”,一旦触发关门那么以当前时刻为准在窗口范围内的所有所有数据都会收入窗中。只要没有达到水位那么不管现实中的时间推进了多久都不会触发关窗。

Savepoint跟Checkpoint的差别在于Checkpoint是Flink对于一个有状态应用在运行中利用分布式快照持续周期性的产生Checkpoint,而Savepoint则是手动产生的Checkpoint,Savepoint记录着流式应用中所有运算元的状态。

Savepoint产生的原理是在Checkpointbarrier流动到所有的Pipeline中手动插入从而产生分布式快照,这些分布式快照点即Savepoint。Savepoint可以放在任何位置保存,当完成变更时,可以直接从Savepoint恢复、执行。

FlinkvsBlink

在设计一个低延迟、exactlyonce、流和批统一的,能够支撑足够大体量的复杂计算的引擎时,SparkStreaming等的劣势就显现出来。

SparkStreaming的本质还是一个基于microbatch计算的引擎。这种引擎一个天生的缺点就是每个microbatch的调度开销比较大,当我们要求的延迟越低,额外的开销就越大。这就导致了SparkStreaming实际上不是特别适合于做秒级甚至亚秒级的计算。

KafkaStreams是从一个日志系统做起来的,它的设计目标是足够轻量,足够简洁易用。这一点很难满足我们对大体量的复杂计算的需求。

Storm是一个没有批处理能力的数据流处理器,除此之外Storm只提供了非常底层的API,用户需要自己实现很多复杂的逻辑。

简单地说,Blink就是阿里巴巴开发的基于开源Flink的企业版计算引擎。如前面所说,虽然Flink在理论模型和架构方面有很多创新,但是在工程实现上还有不少问题。

年以来,阿里巴巴团队主要专注于解决Blink的runtime稳定性和scalability的问题。

在拥有了稳定的runtime之后,开始专注于增强Blink的易用性。所以在年底到现在,阿里巴巴团队大力开发Blink实时计算SQL,通过SQL作为统一API服务于各种复杂业务。

从规范StreamingSQL的语义和标准,到实现UDX、join、aggregation、window等一系列SQL最重要的算子,几乎一手打造了完整的StreamingSQL,并且将这些工作推回了FLink社区,得到Flink社区的认可。

Java与大数据架构

7年老码农,10W+

TUhjnbcbe - 2020/12/28 22:29:00
最近很多矿工们都开始了校准网的测试,据了解,校准网的测试环境和奖励竞赛的环境一致,这也是为什么即使在校准网这么不稳定的情况下(已重置一次,下周还会重置)矿工们还是要想方设法,用尽全力去测试。

今天最新官方开发透露的消息,奖励测试将不会于之前官方宣布的8月3日开始,或许是8月0日。影响这个的主要原因就是目前网络的还存在一些bug,同时数据存储交易率过低。

因为存在官方设立的机器人发单,所以存储和检索更趋于主上线后的真实环境。官方的监控网站可以清晰直观地看出各矿工的状态。有的人就对CID提出疑问,这是什么?接下来带你回顾一下之前ProtoSchool带来的课程,希望能解决大家的疑惑。

ProtoSchool团队很高兴地宣布:推出一个全新的CID解剖选择教程,建立了神话般的JoséBateira!这是我们的第一个多项选择内容,也是第一个探索多种格式的内容。

内容标识符(CID)和加密散列使内容寻址成为可能,从而使我们能够安全地定位和识别分散网络上的数据。IPFS使用的CID的字符串表示形式看起来像是串在一起的随机字符,但是在幕后还有很多事情要做。在这个新教程中,我们探索了这些自我描述的内容寻址标识符揭示的所有数据,并深入研究了多哈希,多编解码器,多库和版本前缀。

我们还将看一下CID规范的发展,该规范起源于IPFS,现在生活在MultiformatsProject中。MultiformatsProject是一个自我描述协议的集合,这些协议可用于面向未来的分布式信息系统,包括IPFS,IPLD,libp2p和Filecoin。好奇为什么有些IPFScid从Qm开始…其他人从b开始?想知道为什么我们要从CIDv0切换到CIDv,或者这些版本是否可以互换?

探索CID的更多方法

CID检查器

您是否知道可以将任何IPFSCID粘贴到CID检查器中,以便对其多哈希格式和长度,多编解码器,多库和版本进行人性化分解?它甚至可以将CIDv0转换为CIDv!令人敬畏的OliEvans构建了这个超级有用的可视化工具,我们将在此新教程中进行探索,现在您可以从编码挑战中访问该工具。

IPFS训练营课程:了解IPFS如何处理文件

如果您想通过视频对CID进行更深入的了解,我们建议您查看IPFSCamp研讨会,该研讨会启发了本教程``了解IPFS如何处理文件"。它深入探讨了诸如不变性,内容寻址,哈希,CID的剖析,MerkleDAG到底是什么以及块大小如何影响文件导入之类的关键概念。它还涵盖了可变文件系统(MFS)的乐趣和陷阱,可变文件系统(MFS)是IPFS中的抽象层,可让您像使用传统的基于名称的文件系统一样使用不可变的文件和目录。感谢AlanShaw创造了这门课程中激发我们新教程灵感的部分。观看下面的录音或查看幻灯片!

了解IPFS如何处理文件

1
查看完整版本: 校准网的参数困惑,带你回顾ProtoSc