LiangJin0727
大数据是众多学科与统计学交叉产生的一门新兴学科。大数据牵扯的数据挖掘、云计算一类的,所以是计算机一类的专业。分布比较广,应用行业较多。
零售业:主要集中在客户营销分析上,通过大数据技术可以对客户的消费信息进行分析。获知客户的消费习惯、消费方向等,以便商场做好更合理商品、货架摆放,规划市场营销方案、产品推荐手段等。
金融业:在金融行业里头,数据即是生命,其信息系统中积累了大量客户的交易数据。通过大数据可以对客户的行为进行分析、防堵诈骗、金融风险分析等。
医疗业:通过大数据可以辅助分析疫情信息,对应做出相应的防控措施。对人体健康的趋势分析在电子病历、医学研发和临床试验中,可提高诊断准确性和药物有效性等。
制造业:该行业对大数据的需求主要体现在产品研发与设计、供应链管理、生产、售后服务等。通过数据分析,在产品研发过程中免除掉一些不必要的步骤,并且及时改善产品的制造与组装的流程。
我叫鑫小鑫
大数据前景是很不错的,像大数据这样的专业还是一线城市比较好,师资力量跟得上、就业的薪资也是可观的,学习大数据可以按照路线图的顺序,
学大数据关键是找到靠谱的大数据培训机构,你可以深度了解机构的口碑情况,问问周围知道这家机构的人,除了口碑再了解机构的以下几方面:
1. 师资力量雄厚
要想有1+1>2的实际效果,很关键的一点是师资队伍,你接下来无论是找个工作还是工作中出任哪些的人物角色,都越来越爱你本身的技术专业大数据技术性,也许的技术专业大数据技术性则绝大多数来自你的技术专业大数据教师,一个好的大数据培训机构必须具备雄厚的师资力量。
2. 就业保障完善
实现1+1>2效果的关键在于能够为你提供良好的发展平台,即能够为你提供良好的就业保障,让学员能够学到实在实在的知识,并向大数据学员提供一对一的就业指导,确保学员找到自己的心理工作。
3. 学费性价比高
一个好的大数据培训机构肯定能给你带来1+1>2的效果,如果你在一个由专业的大数据教师领导并由大数据培训机构自己提供的平台上工作,你将获得比以往更多的投资。
希望你早日学有所成。
qianmian1015
1. 第一阶段(一般岗位叫数据专员)
基本学会excel(VBA最好学会;会做透视表;熟练用筛选、排序、公式),做好PPT。这样很多传统公司的数据专员已经可以做了
2. 第二阶段(数据专员~数据分析师)
这一阶段要会SQL,懂业务,加上第一阶段的那些东西。大多数传统公司和互联网小运营、产品团队够用了。
3. 第三阶段(数据分析师)
统计学熟练(回归、假设检验、时间序列、简单蒙特卡罗),可视化,PPT和excel一定要溜。这些技术就够了,能应付大多数传统公司业务和互联网业务。
4. 第四阶段(分裂)
数据分析师(数据科学家)、BI等:这部分一般是精进统计学,熟悉业务,机器学习会使用(调参+选模型+优化),取数、ETL、可视化啥的都是基本姿态。
可视化工程师:这部分国内比较少,其实偏重前端,会high charts,, 。技术发展路线可以独立,不在这四阶段,可能前端转行更好。
ETL工程师:顾名思义,做ETL的。
大数据工程师:熟悉大数据技术,hadoop系二代。
数据工程师(一部分和数据挖掘工程师重合):机器学习精通级别(往往是几种,不用担心不是全部,和数据分析师侧重点不同,更需要了解组合模型,理论基础),会组合模型形成数据产品;计算机基本知识(包括linux知识、软件工程等);各类数据库(RDBMS、NoSQL(4大类))
数据挖掘:和上基本相同。
爬虫工程师:顾名思义,最好http协议、tcp/ip协议熟悉。技术发展路线可以独立,不在这四阶段
发现回答的有点文不对题额,不过大致是所有从底层数据工作者往上发展的基本路径。往数据发展的基本学习路径可以概括为以下内容:
1. EXCEL、PPT(必须精通)
数据工作者的基本姿态,话说本人技术并不是很好,但是起码会操作;要会大胆秀自己,和业务部门交流需求,展示分析结果。技术上回VBA和数据透视就到顶了。
2. 数据库类(必须学)
初级只要会RDBMS就行了,看公司用哪个,用哪个学哪个。没进公司就学MySQL吧。
NoSQL可以在之后和统计学啥的一起学。基本的NoSQL血MongoDB和Redis(缓存,严格意义上不算数据库),然后(选学)可以了解各类NoSQL,基于图的数据库Neo4j,基于Column的数据库BigTable,基于key-value的数据库redis/cassendra,基于collection的数据库MongoDB。
3. 统计学(必须学)
如果要学统计学,重要概念是会描述性统计、假设检验、贝叶斯、极大似然法、回归(特别是广义线性回归)、主成分分析。这些个用的比较多。也有学时间序列、bootstrap、非参之类的,这个看自己的意愿。
其他数学知识:线性代数常用(是很多后面的基础),微积分不常用,动力系统、傅里叶分析看自己想进的行业了。
4. 机器学习(数据分析师要求会选、用、调)
常用的是几个线性分类器、聚类、回归、随机森林、贝叶斯;不常用的也稍微了解一下;深度学习视情况学习。
5. 大数据(选学,有公司要求的话会用即可,不要求会搭环境)
hadoop基础,包括hdfs、map-reduce、hive之类;后面接触spark和storm再说了。
6. 文本类(选学,有公司要求的话会用即可)
这部分不熟,基本要知道次感化、分词、情感分析啥的。
7. 工具类
语言:非大数据类R、Python最多(比较geek的也有用julia的,不差钱和某些公司要求的用SAS、Matlab);大数据可能还会用到scala和java。
小兔子lucky
首先,必须明白数值分析的用途。通常所学的其他数学类学科都是由公式定理开始,从研究他们的定义,性质再到证明与应用。但实际上,尤其是工程,物理,化学等其它具体的学科。往往你拿到手的只是通过实验得到的数据。如果是验证性试验,需要代回到公式进行分析,验证。但往往更多面对的是研究性或试探性试验,无具体公式定理可代。那就必须通过插值,拟合等计算方法进行数据处理以得到一个相对可用的一般公式。还有许多计算公式理论上非常复杂,在工程中不实用,所以必须根据实际情况把它转化成多项式近似表示。这都是数值分析的任务。学习数值分析,不应盲目记公式,因为公事通常很长且很乏味。我个人认为,应从公式所面临的问题以及用途出发。比如插值方法,就是就是把实验所得的数据看成是公式的解(好比函数图像上的各个点),由这些解反推出一个近似公式,可以具有局部一般性。再比如说拟合,在插值的基础上考虑实验误差,通过拟合能将误差尽可能缩小,之后目的也是得到一个具有一定条件下的一般性的公式。好好学吧,数值分析挺实用,与数学建模一起构成数学学科中最实用的两门学科,在工程,经济等许多邻域都有广泛的用途。
独角兽z
数据分析工程师+培训?结构介绍如下:
了解数据采集的意义在于真正了解数据的原始面貌,包括数据产生的时间、条件、格式、内容、长度、限制条件等。这会帮助数据分析师更有针对性的控制数据生产和采集过程,避免由于违反数据采集规则导致的数据问题;同时,对数据采集逻辑的认识增加了数据分析师对数据的理解程度,尤其是数据中的异常变化。
Omniture中的Prop变量长度只有100个字符,在数据采集部署过程中就不能把含有大量中文描述的文字赋值给Prop变量(超过的字符会被截断)。
在Webtrekk323之前的Pixel版本,单条信息默认最多只能发送不超过2K的数据。当页面含有过多变量或变量长度有超出限定的情况下,在保持数据收集的需求下,通常的解决方案是采用多个sendinfo方法分条发送;而在325之后的Pixel版本,单条信息默认最多可以发送7K数据量,非常方便的解决了代码部署中单条信息过载的问题。
当用户在离线状态下使用APP时,数据由于无法联网而发出,导致正常时间内的数据统计分析延迟。直到该设备下次联网时,数据才能被发出并归入当时的时间。这就产生了不同时间看相同历史时间的数据时会发生数据有出入。
在数据采集阶段,数据分析师需要更多的了解数据生产和采集过程中的异常情况,如此才能更好的追本溯源。另外,这也能很大程度上避免“垃圾数据进导致垃圾数据出”的问题。
优质工程师考试问答知识库