• 回答数

    5

  • 浏览数

    161

好吃的小蓝
首页 > 工程师考试 > 猎聘数据工程师培训是干什么的

5个回答 默认排序
  • 默认排序
  • 按时间排序

贝贝花儿

已采纳

数据工程师负责大数据架构的开发、构建、维护和测试,数据库和大数据处理系统。负责创建用于建模,挖掘,获取和验证数据集合等流程。【数据工程师的工作内容】有:学习并适应产品设计开发体系和公司产品开发程序,按产品开发规范进行新产品设计,产品设计验证;完成产品技术积累,形成技术规范,理解公司程序及用户的特定文件编制要求,确保全新产品设计成功引入公司;完成产品设计资料并发布,确保设计资料对制造过程工艺路线和方法具有指导作用,与用户交流并确保图纸状态持续的满足用户技术状态要求;完成项目的设计验证计划并实施,进行技术积累,形成规范的设计模板,实现技术进步,持续改进,并推行持续性改进作为更改的手段;与制造工程师紧密合作,降低产品设计成本,达到适合公司具体情况的产品设计,确保现有条件某具体项目制造过程的最合理性。想了解更多有关数据工程师的详情,推荐选择【达内教育】。【达内教育】引领行业的职业教育公司,致力于IT互联网行业,培养软件开发工程师、系统管理员、UI设计师、网络营销工程师、会计等职场人才,拥有强大的师资力量,实战讲师对实战经验倾囊相授,部分讲师曾就职于IBM、微软、Oracle-Sun、华为等企业,其教研团队更是有独家26大课程体系,助力学生系统化学习。→感兴趣的话点击此处,免费学习一下

猎聘数据工程师培训是干什么的

140 评论(15)

爱美柯净水器

大数据工程师负责创建和维护分析基础架构,该基础架构几乎可以支持数据世界中的所有其他功能。他们负责大数据架构的开发、构建、维护和测试,例如数据库和大数据处理系统。大数据工程师还负责创建用于建模,挖掘,获取和验证数据集合等流程。

1、负责公司大数据平台产品的技术工作,包括需求分析、架构设计、研发、以及性能分析工作;

2、负责整体提升Hadoop集群的高可用性、高性能、高扩展特性,已有的大数据平台架构的维护工作;

3、负责海量数据的导入优化工作;

4、整理和完善各类文档。

大数据工程师需要具有良好的沟通能力、优秀的分析问题和问题解决能力;具备强烈的进取心和团队合作精神;具备数据库系统的基本理论知识。

1、linux

大数据集群主要建立在linux操作系统上,Linux是一套免费使用和自由传播的类Unix操作系统。而这部分的内容是大家在学习大数据中必须要学习的,只有学好Linux才能在工作中更加的得心应手。

2、Hadoop

我觉的大家听过大数据就一定会听过hadoop。Hadoop是一个能够对大量数据进行离线分布式处理的软件框架,运算时利用maprebaice对数据进行处理。

3、Java

只需要学习Java的标准版JavaSE就可以了,像Servlet、JSP、Tomcat、Struts、Spring、Hibernate,Mybatis都是JavaEE方向的技术在大数据技术里用到的并不多,只需要了解就可以了,当然Java怎么连接数据库还是要知道的,像JDBC一定要掌握一下。

326 评论(8)

zhenghan116

大数据工程师主要是,分析历史、预测未来、优化选择,这是大数据工程师在“玩数据”时最重要的三大任务:

找出过去事件的特征:大数据工程师一个很重要的工作,就是通过分析数据来找出过去事件的特征。找出过去事件的特征,最大的作用是可以帮助企业更好地认识消费者。通过分析用户以往的行为轨迹,就能够了解这个人,并预测他的行为。

预测未来可能发生的事情:通过引入关键因素,大数据工程师可以预测未来的消费趋势。

找出最优化的结果:根据不同企业的业务性质,大数据工程师可以通过数据分析来达到不同的目的。

扩展资料

大数据工程师需要学习的知识

1、linux

大数据集群主要建立在linux操作系统上,Linux是一套免费使用和自由传播的类Unix操作系统。而这部分的内容是大家在学习大数据中必须要学习的,只有学好Linux才能在工作中更加的得心应手。

2、Hadoop

我觉的大家听过大数据就一定会听过hadoop。Hadoop是一个能够对大量数据进行离线分布式处理的软件框架,运算时利用mapreduce对数据进行处理。

参考资料来源:百度百科-大数据分析师

207 评论(13)

YangBin啊啊

是真的。主要培训结合行业经验与方法论,提供个性化交付方案、主题培训,专题分析报告,业务运营策略设计等服务。

266 评论(15)

烧卖吃饱了

1 维护大数据平台(这个应该是每个大数据工程师都做过的工作,或多或少会承担“运维”的工作)2 为集群搭大数据环境(一般公司招大数据工程师环境都已经搭好了,公司内部会有现成的大数据平台,但我这边会私下搞一套测试环境,毕竟公司内部的大数据系统权限限制很多,严重影响开发效率)3 写 SQL (很多入职一两年的大数据工程师主要的工作就是写 SQL )4 数据迁移(有部分公司需要把数据从传统的数据库 Oracle、MySQL 等数据迁移到大数据集群中,这个是比较繁琐的工作,吃力不讨好)5 应用迁移(有部分公司需要把应用从传统的数据库 Oracle、MySQL 等数据库的存储过程程序或者SQL脚本迁移到大数据平台上,这个过程也是非常繁琐的工作,无聊,高度重复且麻烦,吃力不讨好)6 数据采集(采集日志数据、文件数据、接口数据,这个涉及到各种格式的转换,一般用得比较多的是 Flume 和 Logstash)7 数据处理 离线数据处理(这个一般就是写写 SQL 然后扔到 Hive 中跑,其实和第一点有点重复了) 实时数据处理(这个涉及到消息队列,Kafka,Spark,Flink 这些,组件,一般就是 Flume 采集到数据发给 Kafka 然后 Spark 消费 Kafka 的数据进行处理)8 数据可视化(这个我司是用 Spring Boot 连接后台数据与前端,前端用自己魔改的 echarts)9 大数据平台开发(偏Java方向的,大概就是把开源的组件整合起来整成一个可用的大数据平台这样,常见的是各种难用的 PaaS 平台)10 数据中台开发(中台需要支持接入各种数据源,把各种数据源清洗转换为可用的数据,然后再基于原始数据搭建起宽表层,一般为了节省开发成本和服务器资源,都是基于宽表层查询出业务数据)11 搭建数据仓库(这里的数据仓库的搭建不是指 Hive ,Hive 是搭建数仓的工具,数仓搭建一般会分为三层 ODS、DW、DM 层,其中DW是最重要的,它又可以分为DWD,DWM,DWS,这个层级只是逻辑上的概念,类似于把表名按照层级区分开来的操作,分层的目的是防止开发数据应用的时候直接访问底层数据,可以减少资源,注意,减少资源开销是减少 内存 和 CPU 的开销,分层后磁盘占用会大大增加,磁盘不值钱所以没什么关系,分层可以使数据表的逻辑更加清晰,方便进一步的开发操作,如果分层没有做好会导致逻辑混乱,新来的员工难以接手业务,提高公司的运营成本,还有这个建数仓也分为建离线和实时的)总之就是离不开写 SQL ...

100 评论(12)

相关问答