5G/ioT

除了快,5G 有哪些关键技术?

5G不仅仅只是网速更快,更多的是生活方式的颠覆,对各行各业都会起到催化作用。5G里不仅仅只有大带宽,而是会有很多与B端用户(企业)相结合的点。接下来,跟阿里大文娱的梓烁一起了解5G的关键技术。

1. 5G的关键技术

5G的核心技术点挺多,包含了很多技术集。稍微了解过5G的同学应该知道5G其实已经定义了三大场景:

  • eMBB:增强移动宽带,顾名思义是针对的是大流量移动宽带业务;
  • URLLC:超高可靠超低时延通信(3G响应为500ms,4G为50ms,5G要求1ms),这些在自动驾驶、远程医疗等方面会有所使用;
  • mMTC:大连接物联网,针对大规模物联网业务。

1.1 eMBB

4G已经那么快了,那么5G里面是怎么样继续提升容量的呢?

容量=带宽*频谱效率*小区数量

根据这个公式,要提升容量无非三种办法:提升频谱带宽、提高频谱效率和增加小区数量。增加小区数量意味着建设更多基站,成本太高。

至于频谱带宽,中低频段的资源非常稀缺,因此5G将视野拓展到了毫米波领域,后面会介绍,毫米波频段高,资源丰富,成为重点开发频谱区域;除了扩展更多频谱资源之外,还有一种有效的方式就是更好的利用现有的频谱,认知无线电经过多年的发展也取得了一些进展,可以利用认知无线电来提高广电白频谱的利用率。

白频谱就是指在特定时间、特定区域,在不对更高级别的服务产生干扰的基础上,可被无线通信设备或系统使用的频谱。所谓广电白频谱就是指在广播电视频段的白频谱。因为广播电视信号所在频段是非常优质的频段,非常适合广域覆盖,因此该频段认知无线电的应用值得关注。

运营商更喜欢通过提升频谱效率的方式来提升容量。采用校验纠错、编码方式等办法接近香农极限速率。相对于4G的Tubor码,5G的信道编码更加高效。

4G和WiFi目前使用的调制技术主要是OFDM,这种调制方式的能力相比之前的CDMA等有了大幅的提升,但是OFDMA要求各个资源块都正交,这将限制资源的使用,因此如果信号不正交也可以正常的解调,那将可以极大的提升系统容量,因此NOMA(non-orthogonal multiple-access)技术应运而生。在调制技术上的提升到了极限后,另一种更有效的方法就是多天线技术了,通过Massive MIMO实现容量的大幅提升。

★ 1.1.1 信道编码技术

数据编码方案主要有三个:LDPC码是美国人提出来的,Polar码是土耳其一个大学教授提出来的,另外还有欧洲的Turbo2.0码。

2016年10月,3GPP在葡萄牙里斯本召开了RAN1#86bis会议(以下称86次会议),在此次国际会议上,以往3G和4G占主导的Turbo几乎没有什么支持者,论战的主角是LDPC和Polar。此次会议中三派就其他阵营提出方案的技术短板进行抨击,然而LDPC因技术上的优势而占据上风,获得了大量支持者,如三星、高通、诺基亚、英特尔、联想、爱立信、索尼、夏普、富士通、摩托罗拉移动等。而此时只有华为一家还在坚持Polar码,就算联想投票给Polar码也无济于事。在这一次会议上,LDPC占据了明显上风,成为5G移动宽带在数据传输部分所采纳的方案。

2016年11月,3GPP在美国召开了RAN1#87次会议,此次会议主要讨论5G数据信道短码方案以及5G控制信道方案。最终投票达成的结果,即5G eMBB场景的信道编码技术方案中,长码编码以及和数据信道的上行和下行短码方案采用高通主推的LDPC码;控制信道编码采用华为主推的Polar方案。

5G数据信道追求传输速率,主要为大型封包,在此方面LDPC的性能具有明显优势,这也是LDPC能顺利拿下数据信道长码的实力所在。关于5G控制信道,因传输数据量小,相比于速度更注重可靠性,在此方面Polar码有重要优势,加之中国厂商(包括联想投票赞成)的广泛支持,Polar码得以成为5G移动宽带控制信道的国际编码标准。

大信息块长度下不同信道编码的表现,可以看出LDPC的传输效率还是要明显高于其余两者的。

★ 1.1.2 非正交多址接入技术

4G网络采用正交频分多址(OFDM)技术,OFDM不但可以克服多径干扰问题,而且和MIMO技术配合,极大的提高了数据速率。由于多用户正交,手机和小区之间就不存在远-近问题,快速功率控制就被舍弃,而采用AMC(自适应编码)的方法来实现链路自适应。

从2G,3G到4G,多用户复用技术无非就是在时域、频域、码域上做文章,而NOMA在OFDM的基础上增加了一个维度——功率域。

新增这个功率域的目的是,利用每个用户不同的路径损耗来实现多用户复用。

  • NOMA希望实现的是,重拾3G时代的非正交多用户复用原理,并将之融合于现在的4G OFDM技术之中。
  • NOMA可以利用不同的路径损耗的差异来对多路发射信号进行叠加,从而提高信号增益。它能够让同一小区覆盖范围的所有移动设备都能获得最大的可接入带宽,可以解决由于大规模连接带来的网络挑战。

★ 1.1.3 毫米波

美国联邦通信委员会早在2015年就已经率先规划了28 GHz、37 GHz、39 GHz 和 64-71 GHz四个频段为美国5G毫米波推荐频段。美国FCC举办了28GHz频谱拍卖,2965张频谱牌照的成交总额近7.03亿美元。(PS:国外频谱是公开拍卖,国内是由无线电管理委员会分配)。

毫米波很大的优势是频段高,频谱资源丰富,带宽很宽。另外频谱高,波长短,天线相应的也更短,更方便在手机等小型设备上搭建多天线的应用。光速=波长*频率的公式计算,28GHz频率的波长约为10.7mm,也就是毫米波,一般而言天线长度与波长成正比,基本上天线是波长的四分之一或二分之一是最优,因此毫米波更短的波长也让天线变得更短。

在 Massive MIMO 系统中可以在系统基站端实现大规模天线阵列的设计,从而使毫米波应用结合在波束成形技术上,这样可以有效的提升天线增益,但也是由于毫米波的波长较短,所以在毫米波通信中,传输信号以毫米波为载体时容易受到外界噪声等因素的干扰和不同程度的衰减,信号不容易穿过建筑物或者障碍物,并且可以被叶子和雨水吸收。

★ 1.1.4 Massive MIMO与波束赋形

MIMO(Multiple-InputMultiple-Output)可译为多输入多输出,也就是多根天线的发送和接收。MIMO并不是一项全新技术,在LTE(4G)时代就已经在使用了。通过更高阶的MIMO技术,结合载波聚合和高阶调制,业界已经可以让LTE达到千兆级(1Gbps及以上)速度,达到初期LTE速度的十倍。

MIMO技术突破了香农定理的限制,跳出了点对点单用户的框框,将单一点对点信道变换成多个并行信道来处理,以至于频谱效率主要取决于并行信道数量,从而提升了系统容量和频谱效率。

如下图所示,LTE和LTE-A基站端和手机端使用的都是少量的天线,手机端使用的天线数较少主要是受制于手机尺寸,在目前的中低频段,对应的天线尺寸仍然较大,无法在手机中集成过多的天线。而5G使用毫米波后,天线的尺寸变得很小,可以很方便的集成大量的天线。Massive MIMO最多可以支持256跟天线。

要做到Massive MIMO,基站要精确的掌握信道信息和终端位置,这对于时分复用的TDD系统不是什么大问题,而对于频分的FDD系统就麻烦了。由于TDD系统上下行使用同一频段,可以单边的基于上行信道状况估计下行信道,即利用上下行信道的互易性来推断基站到终端的下行链路。而FDD系统,由于上行和下行不在一个频段,因此不能直接用上行信道状况估计下行信道状况,为了实现信道估计,需要引入CSI反馈,多了大量CSI反馈,随着天线数量增加,不但开销增大,且反馈信息的准确性和及时性也存在降低的可能。因此,业界一直以为,Massive MIMO在FDD上更难于部署。

国内其实在做3G的时候,国产的TD-SCDMA里面就有提到智能天线,基站系统通过数字信号处理技术与自适应算法,使智能天线动态地在覆盖空间中形成针对特定用户的定向波束。虽然TD-SCDMA没怎么做起来,但不可否认他让我国各大厂商积累了更多的MIMO天线和波束赋形的相关经验。国外一直在大推FDD,目前看来TDD在Massive MIMO方面有着不可或缺的优势。

中国移动在杭州进行外场测试,从芯片到核心网端到端使用华为5G解决方案。其中,网络侧使用华为2.6GHz NR支持160MHz大带宽和64T64R MassiveMIMO的无线设备,对接集中化部署于北京支持5G SA架构的核心网,同时终端侧使用基于华为巴龙5000芯片的测试终端。可以看到基站侧使用的是64T64R,即64根发射天线64根接收天线,一共128根天线。

MIMO技术经历了从SU-MIMO(单用户MIMO)向MU-MIMO(多用户MIMO)的发展过程。SU-MIMO,它的特点是只服务单一终端,终端受限于天下数量和设计复杂性,从而限制了进一步发展。而MU-MIMO将多个终端联合起来空间复用,多个终端的天线同时使用,这样以来,大量的基站天线和终端天线形成一个大规模的虚拟的MIMO信道系统。这是从整个网络的角度更宏观的去思考提升系统容量。不过,这么多天线引入,信号交叉,必然会导致干扰,这就需要预处理和波束赋形(Beamforming)技术了。

这种空间复用技术,由全向的信号覆盖变为了精准指向性服务,波束之间不会干扰,在相同的空间中提供更多的通信链路,极大地提高基站的服务容量。

假设在一个周围建筑物密集的广场边上有一个全向基站(红色圆点),周围不同方向上分布3台终端(红、绿、蓝X)。采用Massive MIMO场景下,并引入精准的波束赋形后,情况就神奇的变成下面这样了。看着是不是很高端的样子,已经可以精确的控制电磁波的方向了,说起来容易,做起来可就难了,这里面的高科技无数。

图片来源:

https://www.cnblogs.com/myourdream/p/10409985.html

★ 1.1.5 认知无线电

为什么会有认知无线电,主要是因为低频段的频谱资源非常稀缺,之前已经分配给一些系统使用了,但是发现这些系统并没有非常有效的把频谱利用起来。因此就考虑使用认知无线电技术,在不影响主通信系统的情况下,能见缝插针的利用这些频谱。

认知无线电可以被理解为获得对周围环境的认知并相应调整其行为的无线电。例如,认知无线电可以在跳转到另一个未使用的频带之前确定未使用的频带,并将其用于传输。认知无线电术语是由约瑟夫·米多拉创造的,指的是能够感知外部环境的智能无线电,能够从历史中学习,并根据当前的环境情况做出智能决策来调整其传输参数。

认知无线电是SDR(软件定义无线电)和MIND(人工智能)的组合。我们可以想像无线电赋予人类的某种功能,通过观察感知外界,然后决定是否发送以及如何发送。在5G里会有很多认知无线电相关的研究和应用。

1.2uRLLC

5G的理论延时是1ms,是4G延时的几十分之一,基本达到了准实时的水平。这自然也会催生很多应用场景,其实uRLLC的全称是超可靠、低时延通信,所以不仅仅只是低时延还需要高可靠。具备时延低且可靠后,一些工业自动化控制、远程医疗、自动驾驶等技术就可以逐渐构建起来了,这方面带来的变革可能是天翻地覆的,原来看来不可能的事情,都在慢慢变得可能。来看看都做了些什么让这些成为现实了吧。

★ 1.2.1 5GNR帧结构

首先解释一下什么叫做5GNR,其实就是5G空口标准,3gpp给他取了个名字,叫5GNR(New Radio),4G时代一般将空口命名为LTE(Long TermEvolution)和LTE一样,5GNR的一个无线帧长为10ms,每个无线帧分为10个子帧,子帧长度为1ms;每个无线帧又可分为两个半帧(half-frame),第一个半帧长5ms、包含子帧#0~#4,第二个半帧长5ms、包含子帧#5~#9;这部分的结构是固定不变的。

5G NR的子载波间隔不再像LTE的子载波间隔固定为15Khz,而是可变的,可以支持5种配置,15kHz、30kHz、60kHz、120kHz、240kHz,为什么不能小于15KHz或大于240KHz呢?

相位噪声和多普勒效应决定了子载波间隔的最小值,而循环前缀CP决定了子载波间隔的最大值。我们当然希望子载波间隔越小越好,这样在带宽相同的情况下,能够传输更多的数据。但如果子载波间隔太小,相位噪声会产生过高的信号误差,而消除这种相位噪声会对本地晶振提出过高要求。

如果子载波间隔太小,物理层性能也容易受多普勒频偏的干扰;如果子载波间隔的设置过大,OFDM符号中的CP的持续时间就越短。设计CP的目的是尽可能消除时延扩展(delay spread),从而克服多径干扰的消极影响。CP的持续时间必须大于信道的时延扩展,否则就起不到克服多径干扰的作用。因此选择15KHz~240KHz都是技术和实现成本等一系列综合考虑的折中结果。

如下图所示,子载波间隔越大则时隙越短(最小的子载波间隔15KHz对应的时隙长1ms、最大的子载波间隔240KHz对应时隙长0.0625ms),对于uRLLC场景,要求传输时延低,此时网络可以通过配置比较大的子载波间隔来满足时延要求。

5G NR的灵活框架设计可以向上或向下扩展TTI(即使用更长或更短的TTI),依具体需求而变。除此之外,5G NR同样支持同一频率下以不同的TTI进行多路传输。比如,高Qos(服务质量)要求的移动宽带服务可以选择使用500 µs的TTI,而不是像LTE时代只能用标准TTI,同时,另一个对时延很敏感的服务可以用上更短的TTI,比如140 µs,而不是非得等到下一个子帧到来,也就是500 µs以后。也就是说上一次传输结束以后,两者可以同时开始,从而节省了等待时间。

★ 1.2.2 多载波技术改进

在OFDM系统中,各个子载波在时域相互正交,它们的频谱相互重叠,因而具有较高的频谱利用率。OFDM技术一般应用在无线系统的数据传输中,在OFDM系统中,由于无线信道的多径效应,从而使符号间产生干扰。

为了消除符号问干扰(ISI),在符号间插入保护间隔。插入保护间隔的一般方法是符号间置零,即发送第一个符号后停留一段时间(不发送任何信息),接下来再发送第二个符号。在OFDM系统中,这样虽然减弱或消除了符号间干扰,由于破坏了子载波间的正交性,从而导致了子载波之间的干扰(ICI)。因此,这种方法在OFDM系统中不能采用。在OFDM系统中,为了既可以消除ISI,又可以消除ICI,通常保护间隔是由CP(Cycle Prefix ,循环前缀来)充当。CP是系统开销,不传输有效数据,从而降低了频谱效率。

目前LTE里使用的CP-OFDM技术能很好的解决多径时延的问题,但是对相邻子带间的频偏和时偏比较敏感,这主要是由于该系统的频谱泄漏比较大,因此容易导致子带间干扰。目前LTE系统在频域上使用了保护间隔,但这样降低了频谱效率,同时也在一定程度上增加了时延,因此5G需要考虑一些新波形技术。目前的CP-OFDM在MTC、短促接入场景上会遇到挑战,极地时延业务;突发、短帧传输;低成本终端具有较大的频率偏差,对正交不利。在多个点协作通信场景,多个点信号发射和接收难度较大。

目前有一些候选的改进技术,3gpp会议上各公司提出来的新波形候选方案包括:加窗正交频分复用(CP-OFDM with WOLA)、移位的滤波器组多载波(FBMC-OQAM),滤波器组的正交频分复用(FB-OFDM)、通用滤波多载波(UFMC)、滤波器的正交频分复用(F-OFDM)和广义频分复用(GFDM)。这些技术都太专业,再此不表,有兴趣的同学可以用关键字搜索了解,多年没做这块了,理解起来也有些费劲,不过没关系,知道他是解决什么问题的就好了。

★ 1.2.3 网络切片

网络切片技术作为5G里至关重要的一项技术,极大的解放了运营商,深受运营商喜爱。传统的各种路由器都是硬交换,规则什么的都需要连网线提前配置好的,修改什么的非常不便,当然如果没有数据包按需处理的需求,这样其实也挺好,快速且稳定。但是随着差异化服务的需求越来越多,如何更快速高效的管理网络成了头疼的问题了,SDN的出现刚好解决了这个问题,软件定义网络(Software Defined Network,SDN)是由美国斯坦福大学CLean State课题研究组提出的一种新型网络创新架构,是网络虚拟化的一种实现方式。

进行SDN改造后,无需对网络中每个节点的路由器反复进行配置,网络中的设备本身就是自动化连通的。只需要在使用时定义好简单的网络规则即可。

SDN所做的事是将网络设备上的控制权分离出来,由集中的控制器管理,无须依赖底层网络设备(路由器、交换机、防火墙),屏蔽了来自底层网络设备的差异。而控制权是完全开放的,用户可以自定义任何想实现的网络路由和传输规则策略,从而更加灵活和智能。控制平面和数据平面分离,可以针对不同的数据包类型/来源配置不同的转发规则,从而对数据包区分不同的服务等级,进而产生了服务质量的区别。

有人对SDN做了一个形象生动的比喻,有助于帮助更好的理解SDN。

1.3 mMTC

先来看看mMTC的KPI,连接密度是1,000,000/km2,电池寿命是在MCL(最大耦合损耗)为164dB时工作10~15年,也就是说在信号很差的情况下仍然能工作10~15年(信号越差发射功率越大,越耗电),覆盖增强是要求在MCL=164dB时能提供160bps的速率,UE的复杂度和成本要求是非常低。

LTE-M,即LTE-Machine-to-Machine,是基于LTE演进的物联网技术,在3GPP R13中被称为LTE enhanced MTC (eMTC),旨在基于现有的LTE载波满足物联网设备需求。NB-IoT是NB-CIoT和NB-LTE的融合,国内主要推行的是NB-IoT技术。

两项技术有什么区别呢?如下图所示,两项技术各有优势,如果对语音、移动性、速率等有较高要求,则选择eMTC技术。相反,如果对这些方面要求不高,而对成本、覆盖等有更高要求,则可选择NB-IoT。

小区容量虽然都是5万个连接,但基本都使用了PSM和eDRX机制,这样设备大部分时间处于休眠,降低了与基站的信令交互,也间接的提升了小区容量。这种容量的提升,主要是以设备长时间休眠而带来的,可以看到NB-IoT的eDRX周期时间相比eMTC更长,所以对于下行数据的响应速度上会更慢。

这两种技术,针对不同类型的物联网技术各有优势,因此也有人说两项技术之间是互补的关系,并各自适用于不同的物联网使用场景。

  • 第一类业务:水表、电表、燃气表、路灯、井盖、垃圾筒等行业/场景,具有静止、数据量很小、时延要求不高等特点,但对工作时长、设备成本、网络覆盖等有较严格的要求。针对此类业务,技术上NB-IoT更合适。
  • 第二类业务:电梯、智能穿戴、物流跟踪等行业/场景,则对数据量、移动性、时延有一定的要求。针对这类业务,技术上eMTC则更胜一筹。

下面的图是3GPP关于5G时代将着手解决Massive和Critical问题,Massive即大容量物联网通信的问题,Critical包括高可靠低时延。标准还在持续演进,目前国内中国电信的NB-IoT建网速度是最快的,从我们线上使用的情况来看,也基本都能覆盖到我们的业务区域。

2. 5G的组网及覆盖

2.1 国内频谱分配

国内的5G频谱分配结果已出,应该也是根据运营商现状评估过之后的结果。下图绿色部分为这次分配的频谱,电信和联通各分得100MHz,移动分得260MHz。

1)中国联通和中国电信获得3.5GHz附近国际主流的5G频段,具有如下特点:

  • 产业链相对成熟,研发较完善,最具有全球通用可行性;
  • 发展进度比较快,实现商用的时间比较早;
  • 更低频、更经济,所需基站密度更低,资本支出相对更小。

2)中国移动获得2.6+4.9GHz组合频谱,具有如下特点:

  • 4.9GHz的100M带宽可以支持的用户数和流量更多,但是所需基站的密度更大,对资本支出带来一定压力;
  • 2.6GHz频谱产业链成熟度低,需要中国移动主动推动产业链的培育和布局,但覆盖范围广、资本开支小,也可为5G商用带来双频段保险。

3)可以看到给中国移动分配的频段一共是260MHz,但是由于此次分配的2515-2675MHz包含之前4G在该频段上的范围,去除之前4G分配过的,本次分配实际新增频谱是200MHz。

中国移动在2.6GHz(2575MHz~2635MHz)上本来就有大量的TD-LTE设备,在5G建设中也将会有速度优势。尤其是借助原有设备的升级改造,可以加大5G的覆盖能力,但2.6GHz目前并非主流的5G频谱,因此在产业链上会需要移动花更多的功夫来培育。

3.5GHz是国内的主流频谱,该频段上的产业链相对更加成熟,因此也是运营商争夺的焦点。

2.2 热点覆盖or连续覆盖?

2.6GHz具备室外连续覆盖的可行性,但是其上行覆盖受限于终端能力及功率等,上行覆盖能力较弱。上行覆盖相对于1800MHz相差4dB,相对于800MHz更是相差10dB以上。无线信号在自由空间中的传播损耗遵循一定的规律,频谱越高,传播损耗更大,传播的距离更短。其实连续覆盖还是热点区域覆盖,主要涉及到的是投资成本的问题,以及投资回报比,因为传播损耗越高也就意味着基站要建的更密集,成本随之大大增高,中国移动分配到的频段更低,具有更大的连续覆盖的可能性。

据保守估计,5G基站(宏基站)数量将会是先有4G基站数量的1.2~1.5倍。由于5G网络运行于较高频段,传统宏基站的穿透能力减弱,因此小基站或室内分布式系统基站会成为很大的补充,比如在一些热点的室内、商场、场馆、地下停车场等部署分布式系统来弥补。

2.3 SAor NSA?

首先解释一下SA和NSA。非独立组网(Non-Standalone,NSA),独立组网(Standalone, SA)。

其实这个概念很容易理解,如下图所示。从4G升级到5G,有两大种方案可选,财大气粗的可以选择完全独立建设一套5G核心网和5G基站。而一些实力没那么雄厚的,可以考虑过度一下,复用现有的4G核心网,享受5G基站带来空口新特性,空口速率会有所提升,但是无法使用5G核心网的一些诸如网络切片之类的新特性。

因为国外还是有很多的运营商财力不是很雄厚,4G的成本还没收回,又要铺设这么大一张网,实在是有心无力。因此3GPP为了让大家能在5G愉快的玩耍,也提供了各种NSA的升级套餐供各家选择。因为5G的空口速率上去了后,4G原有基站可能支撑不了这么大的速率,可能会面临一些改造。

NSA由于其5G空口载波只承载用户数据,系统级的业务控制仍要依赖4G网络,是在现有的4G网络上增加新型在播来进行扩容。因为仍是依赖4G系统的核心网与控制面,非独立组网架构无法充分发挥5G系统低时延的技术特点,也无法通过网络切片、移动边缘计算等特性实现对多样化业务需求的灵活支持。

从全球看,大部分的运营商在初期阶段选择了NSA,这样部署起来比较快,但是这个只能满足5G三大场景中的增强移动宽带部分,还无法满足低时延高可靠和海量大连接场景。另外5G的NSA标准close的比较早,SA标准还在进行中,因此一些现有的5G终端芯片是只支持NSA的,如果只是从带宽的角度来考虑,手机仅支持NSA也问题不大。

2.4 超密集组网(UDN)

5G里在一些热点的区域具备高密集组网能力,比如与大麦业务比较贴近的大型场馆演出赛事时,会是一个超密集组网的场景。在热点高容量密集场景下,无线环境复杂且干扰多变,基站的超密集组网可以在一定程度上提高系统的频谱效率,并通过快速资源调度可以快速进行无线资源调配,提高系统无线资源利用率和频谱效率,但同时也带来了许多问题。

高密度的无线接入站点共存可能带来严重的系统干扰问题;高密度站点会使小区间切换将更加频繁,会使信令消耗量大幅度激增,用户业务服务质量下降;为了实现低功率小基站的快速灵活部署,要求具备小基站即插即用能力,具体包括自主回传、自动配置和管理等功能。

解决这些问题的关键技术有:

1)多连接技术,多连接技术的主要目的在于实现UE (用户终端)与宏微多个无线网络节点的同时连接。在双连接模式下,宏基站作为双连接模式的主基站,提供集中统一的控制面;微基站作为双连接的辅基站,只提供用户面的数据承载。辅基站不提供与UE 的控制面连接,仅在主基站中存在对应UE 的RRC(无线资源控制)实体。

2)无线回传技术,在现有网络架构中,基站与基站之间很难做到快速、高效、低时延的横向通信,基站不能实现理想的即插即用。为了提高节点部署的灵活性,降低部署成本,利用与接入链路相同的频谱和技术进行无线回传传输能解决这一问题。在无线回传方式中,无线资源不仅为终端服务,还为节点提供中继服务。

3)小小区动态调整,频谱利用率最大化。对于展会或者球赛这种突发性质的集会和赛事,其话务波动特性比较明显,用户群体网络分享行为较为普遍,因此对上行容量要求较高。对于相对封闭的室内场馆区域,需要根据实时话务的情况实现动态UL/DL子帧配比调整比如调整为上行占优的配置以满足上行视频回传类需求。具体来说,电影音乐等大数据下载这类对下行资源需求较高的场景,需要扩充更多的下行资源用于传输,比如从D/U从3:1调整为8:1;大型会议实况直播,视频或音频内容上传,则对上行资源存在极大的需求,比如从D/U从3:1调整为1:3。再有,业务类型趋同的用户群体通常是分簇形式,甚至是以小区单元存在的,即在部署区域,当一段时间内用户业务需求统计体现一个稳定而明显的特征,比如对上行业务需求量增加,那么需要对此区域的小区进行统一的时隙调整。

复杂多样的场景下的通信体验要求越来越高,为了满足用户能在大型集会、露天集会、演唱会的超密集场景下获得一致的业务体验5G无线网络需要支持1000倍的容量增益,以及1000亿针对这种未来热点高容量的场景,UDN(超密集组网)通过增加基站部署密度,可以实现系统频率复用效率和网络容量的巨大提升,将成为热点高容量场景的关键解决方案。不久的将来,超高清、3D和沉浸式视频的流行会使得数据速率大幅提升,大量个人数据和办公数据存储在云端,海量实时的数据交互需要可以媲美光纤的传输速率。

3. 总结

总结一下,在本文中,我们可以了解到5G的关键技术。

1)其中单基站的峰值速率要达到20Gbps,频谱效率要达到4G的3~5倍,这是关于eMBB超宽带的指标,使用的主要技术包括LDPC/Polar码等新的编码技术提升容量,使用毫米波拓展更多频谱,使用波束赋形带来空分多址增益,使用NOMA技术实现PDMA功率域的增益,使用Massive MIMO技术来获得更大的容量,毫米波让波长更短,天线更短,在手机上可以安置的天线数更多,基站侧可支持64T64R共128根的天线阵列。

2)时延达到1毫秒,这是关于uRLLC的场景,主要是新的空口标准5GNR中定义了更灵活的帧结构,更灵活的子载波间隔配置,最大的子载波间隔240KHz对应时隙长0.0625ms,这样超低时延应用称为可能。通过新的多载波技术解决目前CP-OFDM中存在的保护间隔等资源浪费,降低时延增大利用率。除此之外,还有网络切片技术,让网络变得更加弹性,可以更好的支持超低时延的应用,建立一条端到端的高速功率,网络切片技术主要是核心网的SDN和NFV的应用。

3)连接密度每平方公里达到100万个,这是关于mMTC的场景,目前标准主要还是基于eMTC和NB-IoT进行演进,两项标准各有优缺点,对数据量、移动性、时延有一定的要求的场景eMTC更合适,具有静止、数据量很小、时延要求不高等特点,但对工作时长、设备成本、网络覆盖等有较严格要求的场景NB-IoT更合适,目前国内主要覆盖的是NB-IoT。这里的连接量其实是一个相对弹性或理想的值,因为连接量的提升主要是以终端通过PSM或eDRX技术实现休眠所带来的,未来更多的并发能力,更小的网络信令消耗、更多的突发数据包等场景都需要被考虑到,这部分的演进仍然有着较长的路要走。

4. 后记

今天的AI非常繁荣火爆,更多的是集中在图像识别领域,不可否认CNN和深度神经网络在这一领域带来的巨大变革,但是AI不等于DNN,不等于图像识别,更不等于人脸识别,要达到更智能的世界还需要AI技术在更多方面取得突破。

AI在图像领域取得突破相当于智能世界的眼睛正在变得更加明亮,原来计算机无法理解的图像,正在慢慢的变得结构化、可理解,图像识别、图像跟踪、图像分割等都让前端变得更加智能了。语音识别取得的进步相当于智能世界的耳朵变得能听见且能听懂了。各种传感技术的进步会逐步接近人的触觉、嗅觉等等对物理世界的感知。最终汇聚到大脑完成智能的决策、指令的上传下达,而5G网络正在逐渐成为连接智能世界各个部分的神经网络。未来值得期待,也期望咱们阿里的城市大脑能成为未来智能世界的重要组成部分。

5G的eMBB场景肯定会更早的发展起来,因为这一块是相对需求明确,用户感知度高的。5G的另外两个场景估计需要更多的与场景结合,更多的是产业的应用,运营商面向B端的应用,也是目前运营商比较积极参与的。

(0)

本文由来源 阿里技术,由 零点 整理编辑!