以下是小编精心整理的GIS数据工程师岗位职责简洁版(共含13篇),仅供参考,希望能够帮助到大家。同时,但愿您也能像本文投稿人“小楠”一样,积极向本站投稿分享好文章。
1、GIS数据采集与处理;
2、电子地图配图;
3、数据整合。
1.从事GIS数据制作、分析、数据管理等工作;
2.编写工作总结和作业流程等文件;
3.通过已经完成的矢量化成果和表格数据库入库和检查工作;
4.利用软件对图形和属性进行检查,并进行错误修改;
5.其他数据制作处理工作。
1、空间数据采集、内业处理;
2、电子地图制作、配图以及地图服务发布;
3、编制空间数据建库工作文档;
4、对成果数据的分类整理、归档;
5、领导安排的其他工作任务。
1、进行GIS数据建库和数据处理方案的设计和实现;
2、运用相关GIS软件进行数据空间化处理建库;
3、进行影像识别及处理;
4、进行数据采集处理建库项目管理。
1.负责GIS数据整理归类和数据处理;
2.从事GIS数据发布;
3.负责GIS数据分类标准制定。
•识别,分析和解决计划支持问题。
•与BU利益相关者合作,确定并优先考虑数据和统计要求,包括要收集的特定数据元素。
•协助开发和实施数据库,数据收集系统/工具,数据分析以及其他优化统计效率和质量的策略(包括确定流程改进以更好地满足业务需求)。
•分析大量数据集,提出有见地的业务建议。
•通过查看报告和绩效指标来确定和纠正数据收集问题,从而确保数据的准确性和完整性。
•识别,分析,解释和建模数据湖中数据的趋势或模式。
•为各种受众设计和生成准确有效的统计数据可视化产品和报告。
•通过促进技术和非技术利益相关者之间的沟通,确保技术团队了解计划和业务工作的短期和长期目标
•准时交付优质,易懂,明确的产品。
•参与构建机器学习策略平台。
•对数据驱动业务,关键思想家,问题解决者和自我启动者的热情
•促进技术和非技术利益相关者之间交流的能力
•出色的书面和口头交流能力。
1.高质量地完成集团内外各类数据生产集成、数据分析应用建设工作,涉及投研、市场、ERP、全球金融资讯等四个业务领域方向;
2.需求及源系统数据分析,完成数据仓库/EDM等系统数据模型及应用模型设计、数据Mapping规则文档撰写、开发、自测及上线部署;
3. 数据质量稽核、问题分析及处理,优化数据处理程序;
4. 洞察数据、满足业务场景需求。
•在行业担任数据工程师或后端工程师超过4年
•您将了解数据仓库的概念(建模,调整,维护)
•您非常精通SQL,并渴望指导和教其他SQL
•您精通Python或任何其他脚本语言和软件开发
•您在分布式数据处理/传统RDBMS / MPP / NoSQL系统和数据建模方面有很强的低估/经验
•您在Spark / Kafka / HBase / Redis / Kettle方面拥有丰富的经验
•您受到探索数据的好奇心和动力的驱动
•您具有处理数据管道的DevOps问题的经验
•对数据驱动业务,关键思想家,问题解决者和自我启动者的热情
•获得认可大学的相关学科的学士学位
1. 参加团队会议与讨论,并给予有意义的建议;
2. 协助后端团队和架构师完成数据库相关的设计与开发;
3. 协助业务部门抓取、分析数据。
1、负责每日的数据仓库运维工作,保障数据的稳定性、一致性等;
2、参与数据仓库的优化设计,如元数据、数据权限、调度优化;
3、负责数据质量和数据标准化的设计与开发;
4、负责满足业务部门的日常业务提数与报表需求的开发。
职责:
1、负责所分管团队的团队建设和日常管理工作;
2、负责核心技术问题攻关和性能优化,持续维护和引进最新的大数据技术到城市大数据平台中,支撑城市级大数据平台业务;
3、承担城市数据标准编制和数据模型的设计;
4、承担项目中数据相关方案设计及数据团队管理;
5、参与城市大数据项目中数据采集、加工过程、分析挖掘模型算法的实施工作。
任职资格:
1、1年以上数据开发工作经验,熟练使用SQL查询引擎;
2、熟悉Hadoop、Mpp、Oracle等至少一种数据仓库工具
3、具备良好的编程语言基础如:java/python/scala/c++/shell等
4、二本以上学历,计算机相关专业或者有相关培训经历者优先
5、 个人素质要求:目光长远、态度诚恳、岗位有稳定性,能够长期培养、具备很强的自学能力、承压能力强、接受出差支援项目等工作。对数据工作具备浓厚的兴趣并有明确职业规划,优秀的学习能力和团队沟通协作能力,对新技术有浓厚兴趣并有钻研精神。
职责
1、负责基于hadoop/spark生态系统、亿级别数据的全文检索,搜索引擎的产品研发;
2、基于海量用户行为数据和其他数据,分析和研究数据与实际业务的关联关系,并与实际业务应用相结合开发;
3、负责大数据分析需求设计和开发,承担数据抽取、清洗、转化等数据处理程序开发。
任职要求:
1、熟悉Hadoop/HBase/Spark/Storm/Redis/Kafka/ES/Flume技术及其生态圈,具备相关项目开发经验,有数据实时计算项目经验优先;
2、有搜索引擎全文检索开发经验 ,如:elasticsearch、solr;
3、熟悉python、R任意一门开发语言;
4、有SAAS,PAAS企业级应用平台或者互联网,金融等大型应用平台开发经验优先考虑;
5、 本科及以上学历,计算机/软件工程/统计学/数学等相关专业,互联网/金融等行业3年以上工作经验;
6、拥有良好的代码习惯,要求结构清晰、命名规范、逻辑性强、代码冗余率低,代码注释清晰;
7、熟悉使用svn,禅道等项目管理工具,有良好的团队协作开发经验.
职责:
1、从事Hadoop、Spark、Hbase、hive等分布式大数据产品的设计和开发;
2、针对部门大数据业务进行大数据分析、挖掘等产品应用的开发;
3、大数据平台各类数据业务抽象及模型化;
4、参与大数据管理平台的开发及维护;
5、负责大数据平台数据及相关的应用开发,调优及维护;
6、为项目相关开发人员提供大数据技术指导及解决大数据平台应用中遇到的技术难题;
7、良好的团队合作与沟通能力。
任职要求:
1、本科及以上学历,2年以上大数据应用开发经验;
2、具备Java、Python、Scala其中两种语言的开发经验;
3、了解泛Hadoop大数据生态圈,熟悉HDFS/Hive/Flink/Hbase/Spark/Kafka其中两种以上技术,并有实际的项目开发经验,有相关源码研究者优先;
4、具备ETL开发与运维能力,有Flume、kettle经验优先;
5、熟悉大数据平台的搭建过程,熟悉数据处理流程,有TB级以上数据处理经验优先,有实时数据处理经验者优先;
6、熟悉离线和实时数据处理流程,熟练使用Spark,Flink处理TB级数据优先;
7、熟悉Linux系统环境,有shell等脚本编写经验,熟悉Mysql、PostgreSql、Oracle等常用关系数据库,熟练编写SQL语句;
8、熟悉Yarn,Kubernetes,Azkaban等资源调度框架者优先;
9、熟悉Datax的二次开发,并有实际开发经验优先。