东数西算-IDC行业专家交流会
1、各个相关产业链都有上市公司:
缆通: 依米康(精密空调)、英维克、佳力图
供电设备: 中恒电气(高压直流)、科华数据(大容量UPS)、科士达(UPS)、易事特
ICT设备: 华为、浪潮、长飞、亨通
光模块企业: (中际旭创、新易盛、华工 科技 、博创 科技 、)
IDC工程企业: 力阳 科技 、城地香江、科华数据、数据港,他们本身也投资IDC,工程+数据中心运营
IDC独立供应商: 万国数据、世纪互联、光环新网、数据港、宝信软件。
东数西算政策对行业是一个提振,国内公司都会积极参与到东数西算工程里面去。
2、西部地区存量机柜上架情况?客户构成?网络延时情况?
西部地区现在30%上架率,国家部委要提升到2025年50%。西部目前上架率不容乐观,未来两年增长。
主要客户构成:目前是冷数据存储为主和部分温数据,未来规划温冷数据、热数据客户导入。
冷数据:存储类数据使用频率不高,温数据:调取评率介于冷热之间。
西部互联网接入和设备这几年得到极大改善,东数西算政府部门会对西部IDC的I部分(互联网接入和传输)加大投入。
3、对一线城市核心卡位IDC议价能力影响?
比较前瞻难判断。我觉得对一线城市肯定有一些影响。一线城市数据中心议价能力售价情况比较乐观,可能保持稳定,稳中有升趋势:位置稀缺资源,成本压力转化(用电成本和运营管理费用有提升,传导到下游)。
溢价能力:东数西算是疏导北上广深一线城市IDC企业去十个集群区域做投资,比拼的是全网络的覆盖,包括一线城市和西部,原先资源很重要。未来在北上广深有布局同时相应国家政策布局西部的会有相当强议价能力。
4、互联网单G测算?
IDC=I+DC:
I:互联网+连接,运营商做投资;
DC:共享出租,地产属性。
I是IT+CT业态。
西部改变互联网连接和互联互通,做了很多网络直连,例如乌兰察布和北京。东数西算确确实实需要做网络直连、光纤直连、利用 搞笑 的路由器、交换机、光模块来改善互联互通。
光纤投入可能是百亿计,加上配套ICT设备可能未来五年大几百亿建设投入。
云厂商、互联网厂商西部布局:像美利云宁夏中卫6、7年前就筹备,AWS亚马逊、三大运营商、人民网人民数据在西部有超大数据中心建设项目。苹果iCloud落在贵阳、乌兰察布。共有云厂家都有基地型布局。
5、西部地区建设成本优势?
数据中心经过10多年发展建设成本计算都非常精准,每机电成本千瓦2W左右,西部和东部不会有很大区别。
土建成本不同地区区别有差异,占总成本比例不到30%。运营成本:电费、人员管理运营成本。
西部丰富电力资源,火煤、光伏风电,发电成本比较低,电价较东部有优势,国家政策是西部瓦特变比特,电力变数据存储计算传输,效率高很多,不用几千公里传到东部,节省电费成本。
乌兰察布发电成本2毛多,东部6.5毛。租金较东部便宜不少,西部单机柜比东部便宜,比如上海6000,内蒙3000-3500。
投资者提问:
1、北京上海上架率?今年趋势?
平均70%左右。北京会提升,上海会有压力,上海有能耗指标释放。今年北京上架率70-75,上海65左右。
2、西部上架率不高痛点?
西部有成本优势,30%是被平均数据,运营商上架率高,电信呼和浩特云基地60%。
第三方投资数据中心在西部在招商运营很多问题,西部没有完善的产业链,当地没有互联网企业产业链基础。
财政税收补贴吧东部往西部传。基础设施改善、网络延时可靠性可靠性,达到东部水准。
国家会把东部把供给减少,不批数据中心项目,让数据往西部走。未来西部会承接更多东部业务。
西部运营成本与东部价差:
西部是东部50-60%水平,东部6000。
西部基础设施条件有改善空间、配套产业链有提升空间。交通、酒店,人才培养运维。
建设1-2年,运维需要本地专业团队。很多西部只能L1/L2运维(物业),L3/L4(IT/CT、系统服务器)做不到。
3、政府最先从哪几个方向切入?
结合背景、碳达峰碳中和,西部有大量能源。数据中心高耗能。
国家队运营商、央国企重点投资,东部数据中心门关上了,往西部做投资。涉及产业链瞒大的。国家工程最先获益的央国企。
碳中和可以集合起来,数据中心大量消化,未来数据中心60-70%用清洁能源。
3、西部机柜不缺,缺的是传输吗?
是的。受益相关网络服务器、路由器、交换机、光猫、光纤;中信、长飞、亨通、天孚、ICT。专属网络(点对点)光纤直连。
4、东数西算会不会对数据中心业务有很大增量?
原本预计IDC每年20%-30%增长,数据存储计算是制约数字化的因素,东数西算实现了成本端的降低,带来了大的增量。有便宜的算力,存储的能力带来数据爆发。
四川准达信息技术股份有限公司成立于二零零一年,主要从事电信运营商及各类专网的网络设计、运营优化、系统集成服务以及政企客户云计算、大数据平台建设维护、通信技术培训、软件开发和通信网络产品销售等业务。业务范围涵盖了云计算、大数据、物联网、云视讯、智真视讯系统、光传输、网络数通、IBS集成、网络能源、精密空调、动环监控、电信基础网络建设、金融领域等,服务区域遍及西南、西北、华中、华南等地区的电信运营商以及公安、教育、能源、交通等政企客户群体。
2001年至今,公司一直从事为各主流营运商提供工程施工和技术服务,全程参与了成渝、西南、华南、西北、东北等区域移动、电信、联通的本地接入网、传输网、核心网、数据网、无线基站等产品的软、硬件施工。并承接和优质高效的完成了西南、西北、华南区域大量的国干线和省干线传输网、关口局、实验局以及国防通信、奥运保障、抢险救灾等工程项目。
公司自成立开始通过华为的工程委托服务以及项目服务方式,为四川、重庆、云南、贵州、西藏、甘肃、青海、宁夏、新疆、广西、东北等省市自治区主流营运商的网络建设提供服务交付。全程参与了各区域主流营运商的各产品的重大工程的建设施工。通过近二十多年来对各产品通信工程建设的工程交付和技术服务的实施,我司积累了丰富的软、硬件施工、项目管理经验,具备了较高的专业技术实力,积累了丰富的人力资源。
贴一个清华大学江亿院士的演讲:
各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。
从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。后面有一些细的发展状况不说了,就直接看到空调里头。现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。
所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。
现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。
有这样问题是坏事儿,反过来又是好事儿。说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。
那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。
还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。
所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。那么,这个等效热阻由什么构成?发现就像咱们的一个网络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。因此,核心的问题就是把这三个环节的热阻降下来。所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。第二、降低热量传输过程中的热阻,同时不增加传输电耗。第三、找到温度更低的自然冷源,但是别破坏环境。
下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。所以,在机柜顶部架一些挡板,这样能够有点改善。但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。
还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。所以,这是很重要一条,但是不能让柜子出水。
这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。分布式制冷系统使空调系统的吸热端更接近热源。这是第一个减少采热采集过程中的热阻。
第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。
第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。直接换热就是干球温度。但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。
这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。所以这个比例还是挺大的。
那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。冷却塔只要露点温度在20度以下,总能起点作用。
这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。
按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从2.7涨到8.2,就只用原来1/3的能耗。最热的时候,冷机都得开了,即使如此,能耗还能差一半。所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。
总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。刚才我听领导讲,国外发达国家比,机房的PUE到1.2,1.3那跟它机房的位置有关系。在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。
你朋友他说的“在线式UPS”,就是和他说的一样,市电进去后,给电瓶充电,而你电脑的电,是UPS发出来的,UPS始终在工作,这种UPS的好处是,市电再怎么不稳,也没事,因为你电脑用的是UPS发的电,,,是蓄电池里面的电,只是苦了蓄电池了
而市场上大部分是“后备式UPS”,顾名思义,就是平时你电脑的电用的还是市电,只在UPS发现市电太低了,或者压根停电了,才切断市电,启动UPS的发电部分,给你的电脑发电,,这就有个问题,这个启动是需要时间的,大约15ms左右
这样看来,只有在线式UPS才能满足你说的要求
但是在线式也有个问题,你电压太低,根本就充不进去电了
所以你还要有选择的去找UPS,宽电压输入的
我看了其他的几个朋友的回答,真的不怎么样,还是我来给您回复一下吧
您的问题描述的不是很清楚,因为没有说招聘的时候,岗位的工资是多少,公司是什么,岗位有什么要求,我给您介绍一下4G网络工程师岗位的相关内容,供您参考:
我来给您讲讲4g网络优化工程师和4g网络核心网络工程师分别是做什么的,有什么区别
一 通信行业的无线优化(网络优化工程师)工作号还是核心网(核心网工程师)工作好
很多朋友是从事网络优化工程师这样的无线网络工程师的岗位,也有一些朋友可能还没有入行,这在忧虑从事网络优化工程师,网络工程督导还是核心网工程师的岗位,我来给您介绍一下这两类岗位的发展区别
1. 通信行业技术岗位的二个分类
通信行业的技术岗位分成无线网络优化,这一类的岗位主要围绕的就是通信基站,网络优化,工程督导工程师,基站勘查设计这一类的岗位
还有一类岗位是做的核心网,就是网络部分的交换机,数据处理设备,我们也称之为数据通信工程师,网络工程师这一类的岗位
2. 无线网络优化岗位和核心网数据通信工程师岗位有什么区别?
先说说无线网络优化工程师岗位,比如大家常常听到的4g网优,4g工程督导,4g勘察设计,这都是无线网络的岗位,所以无线网络优化工程师岗位最大的问题就是:长年出差!长年出差!常年出差!重要的问题说三遍,所以如果你结婚了,买房了,那你的老婆还有房子,还有孩子,基本上留在你所在城市,而你自己就一直出差! 所以这类长年出差的岗位,你需要考虑的是你能不能接受出差!
网络优化工程师刚入行的工资也是2500-3500,从初级的路测工程师这个岗位开始,工作一段时间之后,如果能出差到新疆西藏这样的地区,出差补助就会特别高,收入一个月8000-10000是很正常的,而我们国家两家通信设备公司华为和中兴的很多项目在国外,所以很多从事通信行业的工程师常常也有机会到非洲,东南亚,欧洲这样的国家从事通信工程技术工程师的岗位,这种情况下收入可以在1-2万每月。如果去掉常年出差这个问题的话,这个岗位还是一份非常不错的技术工程师的岗位。
好了,那什么是网络工程师呢?核心网工程师/网络工程师的岗位和无线网络优化工程师的工作内容区别是比较大的,无线工程师的岗位主要是从事通信基站,无线信息测试优化,而核心网工程师/网络工程师/数据通信工程师的岗位主要是围绕核心机房的通信设备,如果从事网络工程师这样的岗位,客户也不一定就是运营上了,因为互联网的传统客户非常多,比如公安局,税务局,国企,政府,银行等等这些部门和企业都是需要大量的通信设备实现互联网,而且也需要大量的网络工程师,所以网络工程师一般是不需要常年出差的,工作相对更加稳定!
二 为什么很多无线优化(网优)工作人员年龄大了转到核心网(网络工程师)?
上面讲到了无线网络优化最大的岗位问题就是出差,虽然工资高,但是老婆孩子房子都留给谁了?如果你27-30岁了,还干一个常见出差的岗位,你对你的家人不管了吗?太冷血了!
所以,出路就是转岗,或者就是转行。如果还考虑通信工程,网络工程这方面的岗位,那么网络工程师,核心网工程师是你不错的选择!
三 核心网网络工程师行业发展怎么样
网络工程师的岗位发展的优势在于这些:
1. 你可以从事非运营商的客户,这样你就不用出差!比如我的客户是公安局,银行,政府,世界500强,大型企业这样的,根本没有必要出差!
2. 网络工程师的岗位很多,我给你数一数,网络工程师、高级网络工程师、技术支持工程师、数据通信工程师,安防弱电工程师,售后工程师,售前工程师等等,如果年龄到30左右完全可以成为项目经理,技术经理这样的岗位!
3. 网络工程师岗位需求量非常大,现在流行的云计算,大数据就需要大量的硬件投资,这些领域对于网络工程师来说就是服务器,交换机,防火墙,路由器不断地扩容,网络不断地更新,所以网络工程师需要掌握弱电安防,系统集成,网络设备,服务器等设备的综合调试培训维护的技术!甚至有朋友问我网络工程师岗位在新疆发展好不好,你想想不管什么地方,现在政府,企业办公都是信息化系统集成,都是有良好的发展的。
4. 随着年龄的增长网络工程师发展的路线特别宽!网络工程师的发展路线如果沟通能力好的话可以向售前工程师,销售工程师,方案工程师这样的岗位发展,岗位一般是技术支持一般是销售沟通。如果技术好,又能沟通,也可以向更高的岗位发展,比如项目经理(工作内容负责项目的售前售后),技术经理(负责公司项目的整体技术支持,负责招聘技术员工,负责培训员工技术)这样的岗位
空调用的冷却塔精密性要求高,
用干球31.5 湿球27度
冷却塔的进水温度37 冷却塔的出水温度32
再配上冷却塔的循环水量进行选择冷却塔
如果不是空调用的,得进行具体的计算了