个人介绍
我是程序员客栈的【sunshine】,一名【Python工程师】; 我就读于【重庆大学】,担任过【阿里巴巴】的【实习生】 负责过【自动化脚本开发】,【神经网络项目】,【SVM机器学习项目】的开发; 如果我能帮上您的忙,请点击“立即预约”或“发布需求”!
工作经历
2020-01-01 -2024-06-01阿里兼职实习生
大家好, 我很高兴向大家介绍自己。我目前在阿里巴巴担任实习生,正积极参与公司的多个项目。 个人简介 我是一名充满热情和动力的实习生,在阿里巴巴的实习经历使我受益匪浅。我拥有丰富的编程经验,尤其擅长使用Python进行自动化脚本开发、机器学习和数据处理。我在多个项目中积累了丰富的实践经验,具体包括: • 自动化脚本开发:开发了多个自动化脚本,用于简化和加速日常任务,提高工作效率。 • 神经网络项目:使用Python开发和训练神经网络模型,解决分类和回归问题。 • SVM机器学习项目:基于Python实现支持向量机(SVM)模型,处理和分析数据集。 • 爬虫项目:开发了多个爬虫项目,自动化收集和处理网页数据。 实习经历 在阿里巴巴的实习过程中,我有幸参与到多个重要项目中,具体职责包括: • 项目参与:积极参与公司内部的实际项目,从项目初期的规划到最终的实施,全面了解项目生命周期。 • 技术开发:根据自身的技术背景,参与项目的技术开发与实现,运用所学知识解决实际问题。 • 团队合作:与阿里巴巴的专业团队紧密合作,学习并适应公司的工作流程和文化。 未来展望 在阿
教育经历
2023-09-01 - 2026-06-01重庆大学软件工程硕士
资质认证
技能
项目背景 本项目旨在从新浪微博平台抓取指定关键字的微博内容,整理并保存为结构化的数据文件(CSV格式),以便进行后续的数据分析和处理。微博作为中国最大的社交媒体平台之一,包含大量用户生成的文本内容,对情绪挖掘、舆情分析等研究具有重要意义。 项目功能 1. 关键字搜索:用户可以输入任意关键词,程序将基于该关键词在微博平台上进行搜索。 2. 多页抓取:用户可以指定需要抓取的页数,程序会自动抓取指定页数内的微博内容。 3. 数据清洗:程序会自动清洗抓取到的微博内容,去除HTML标签等冗余信息。 4. 数据存储:所有抓取到的微博内容会以CSV文件格式进行存储,方便后续的分析与处理。 技术栈 • 编程语言:Python • 第三方库:requests(HTTP请求)、pandas(数据处理)、fake_useragent(生成随机User-Agent)、jsonpath(解析JSON数据)、urllib3(HTTP库) • 数据格式:CSV(Comma-Separated Values)