proginn1129242946
全职 · 600/日  ·  13050/月
工作时间: 周末09:30-18:00工作地点: 远程
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

我是程序员客栈的一名数据开发工程师; 我毕业于安徽科技学院,担任过某公司的数据开发; 熟练使用MySQL,shell,kettle; 如果我能帮上您的忙,请点击“立即预约”或“发布需求”!

工作经历

  • 2021-07-08 -2022-07-01钛镕智能科技(苏州)有限公司数据开发

    Ÿ参与对公知识图谱系统的设计、搭建、环境部署; Ÿ对需求进行整理,初步预估需求所需开发时间,计划周工作、月度工作、季度工作; Ÿ进行需求分析,编写需求分析文档,规划需求开发周期; Ÿ对接各系统,抽取数据,对数据加工处理,制作报表; 负责系统运维及临时数据提取。

教育经历

  • 2016-09-10 - 2020-07-10安徽科技学院信息与计算科学本科

技能

MySQL
Oracle
DB2
0
1
2
3
4
5
0
1
2
3
4
5
作品
数据开发

1、熟悉数据ETL流程,熟悉Hive等工具的数据处理、清洗、变换手段。 2、熟练掌握shell脚本语言,可熟练操作Linux系统,了解Perl脚本。 3、了解Hadoop生态圈大部分主流框架技术(HDFS、MapReduce、Spark、Hive、Flume、Kafka、 Oozie、YARN)。 4、了解Flume、Kafka、Spark Streaming三者的集成使用,可实现实时流式数据采集与存储。 5、熟练掌握SQL语言,熟练运用hql、Spark sql,熟练操作MySQL关系型数据库,了解Oracle, Teradate。 6、了解Beyond Compare文件比对文件的操作流程。 7、了解Java、Scala语言。

0
2023-04-02 09:23
数据开发

1、熟悉数据ETL流程,熟悉Hive等工具的数据处理、清洗、变换手段。 2、熟练掌握shell脚本语言,可熟练操作Linux系统,了解Perl脚本。 3、了解Hadoop生态圈大部分主流框架技术(HDFS、MapReduce、Spark、Hive、Flume、Kafka、 Oozie、YARN)。 4、了解Flume、Kafka、Spark Streaming三者的集成使用,可实现实时流式数据采集与存储。 5、熟练掌握SQL语言,熟练运用hql、Spark sql,熟练操作MySQL关系型数据库,了解Oracle, Teradate。 6、了解Beyond Compare文件比对文件的操作流程。 7、了解Java、Scala语言。

0
2023-04-02 09:25
数据开发

1、熟悉数据ETL流程,熟悉Hive等工具的数据处理、清洗、变换手段。 2、熟练掌握shell脚本语言,可熟练操作Linux系统,了解Perl脚本。 3、了解Hadoop生态圈大部分主流框架技术(HDFS、MapReduce、Spark、Hive、Flume、Kafka、 Oozie、YARN)。 4、了解Flume、Kafka、Spark Streaming三者的集成使用,可实现实时流式数据采集与存储。 5、熟练掌握SQL语言,熟练运用hql、Spark sql,熟练操作MySQL关系型数据库,了解Oracle, Teradate。 6、了解Beyond Compare文件比对文件的操作流程。 7、了解Java、Scala语言。

0
2023-04-02 09:26
更新于: 2023-02-17 浏览: 228