AILogan
1月前来过
全职 · 500/日  ·  10875/月
工作时间: 工作日09:00-21:00、周末09:00-21:00工作地点: 远程
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

本人是一名专注于后端开发与大数据领域的工程师,对技术充满热情,致力于通过创新和高效的解决方案推动业务发展。

后端开发:熟练掌握 Java 语言,深入理解其面向对象编程思想和设计模式,能够运用 Spring Boot、Spring Cloud 等主流框架进行高效的企业级应用开发,构建稳定、可扩展的微服务架构系统。精通 Python 的 Django 和 Flask 框架,在多个项目中利用其简洁高效的特性快速搭建后端接口,实现与前端的无缝对接,并通过 Celery 等工具进行异步任务处理和任务队列管理,提升系统的响应性能和吞吐量。对数据库技术有着深入的理解和丰富的实践经验,熟练使用关系型数据库 MySQL、Oracle,能够进行数据库设计、SQL 优化、存储过程编写等操作,确保数据的高效存储和检索。同时,熟悉 NoSQL 数据库如 MongoDB、Redis,善于利用其优势应对高并发、大数据量存储等场景,如使用 Redis 实现缓存机制、分布式锁等功能,有效减轻数据库压力,提升系统性能。大数据技术:掌握 Hadoop 生态系统的核心组件,包括 HDFS、MapReduce、YARN 等,能够搭建和管理大规模分布式集群环境,运用 Hive 进行数据仓库的构建和 SQL 查询分析,通过 Pig 进行数据处理脚本的编写和复杂数据转换操作,实现对海量结构化和半结构化数据的高效存储和处理。熟练使用 Spark 分布式计算框架,基于 Spark Core 进行离线批处理任务开发,利用 Spark SQL 进行交互式查询分析,借助 Spark Streaming 实现实时流数据处理,结合 Spark MLlib 进行机器学习模型的训练和预测分析,能够根据不同的业务场景选择合适的 Spark 组件和技术方案,充分发挥其快速迭代计算和内存计算的优势,提升大数据处理效率和响应速度。熟悉大数据采集和传输工具,如 Flume、Kafka 等,能够构建稳定可靠的数据采集管道,实现从各种数据源(如日志文件、数据库、消息队列等)高效地采集数据,并通过 Kafka 进行实时数据传输和缓冲,保证数据的一致性和完整性,为后续的大数据处理提供稳定的数据输入源。


工作经历

  • 2024-05-01 -至今中电通途大数据治理工程师

    数据业务负责⼈,主导交通大数据治理工作,主导数据调研、业务调研,业务数据规划,数据汇聚、数据治理⽅案设计梳理,可视 化数据指标梳理等工作。

  • 2021-04-08 -2024-04-30科大讯飞大数据工程师

     数据汇聚任务开发:全量、增量数据抽取任务开发。多来源数据汇聚融合,数据标准化预处 理、数据合并、数据筛选、⾮空校验、数据质量检查等。  数据治理任务开发:数据仓库分层,主题分类,数据建模,数据模型流程开发,数据质量检 查,数据访问权限标签⽣成。  应⽤端功能开发:⽬标态势分析、态势关联分析、⽬标通联关系、智能翻译等功能模块接⼝ 开发。

教育经历

  • 2019-09-01 - 2021-04-08中国科学技术大学人工智能与数据科学硕士

  • 2015-09-01 - 2019-06-01滁州学院计算机科学与技术本科

技能

自然语言处理
0
1
2
3
4
5
0
1
2
3
4
5
更新于: 01-02 浏览: 97