proginn2350101095
1月前来过
全职 · 300/日  ·  6525/月
工作时间: 工作日00:00-00:00工作地点: 远程
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

一位专注于Python编程的软件工程师。我具备丰富的Python开发经验,擅长于Web开发、数据科学和机器学习等领域。我熟练运用Django和Flask等框架进行Web应用开发,并能够利用NumPy、Pandas和Scikit-learn等库进行数据分析和建模工作。我注重团队合作,善于解决问题,并且具备良好的沟通能力和逻辑思维能力。我期待能够在Python的工作领域中发挥自己的专业技能,为团队的成功贡献力量。

工作经历

  • 2024-03-20 -2024-03-20保密保密

    我具备丰富的Python开发经验,擅长于Web开发、数据科学和机器学习等领域。我熟练运用Django和Flask等框架进行Web应用开发,并能够利用NumPy、Pandas和Scikit-learn等库进行数据分析和建模工作。我注重团队合作,善于解决问题,并且具备良好的沟通能力和逻辑思维能力。我期待能够在Python的工作领域中发挥自己的专业技能,为团队的成功贡献力量。

教育经历

  • 2013-09-01 - 2017-09-01天津大学计算机科学与技术本科

技能

0
1
2
3
4
5
作品
自动化文件备份工具

【60%】项目分为多个功能模块,主要实现了自动化备份指定文件夹下的文件,并按照日期进行存档,保证数据的安全性和可恢复性。 【40%】我负责编写Python脚本,利用 os 模块遍历文件夹下的所有文件,使用 shutil 模块实现文件的复制和存档,利用 datetime 模块获取当前日期并创建对应的备份文件夹。最终,成功实现了自动化备份文件的功能,让用户无需手动操作即可保护重要数据。 【选填】难点在于如何处理文件名和目录名中的特殊字符以及大量文件的复制和存储过程中可能出现的异常情况。通过使用 os 模块的相关函数处理特殊字符,并在 shutil 模块的文件复制过程中加入异常处理机制,确保程序的稳定性和可靠性。

0
2024-03-20 09:54
自动化网络爬虫

【60%】项目分为多个功能模块,主要实现了自动化爬取指定网站的信息,并将数据存储为JSON格式文件。 【40%】我负责编写Python脚本,利用Requests库发送HTTP请求获取网页内容,使用BeautifulSoup库解析HTML页面,提取所需信息,并将信息存储为JSON文件。最终,成功实现了自动化爬取指定网站信息的功能。 难点:网站反爬机制和数据结构解析。通过设置合适的请求头模拟人类操作、使用代理IP等方法规避反爬机制;通过深入了解HTML结构和BeautifulSoup库的用法,解析并提取所需信息。

0
2024-03-20 09:51
某招聘网站自动化岗位匹配器

涉及模块:PythonPlaywright(用于网页自动化操作)JSON(用于数据存储和读取)正则表达式异步编程(asyncio) 【60%】项目分为多个功能模块,主要实现了自动化搜索岗位信息、匹配符合条件的岗位,并提供详细信息展示功能。 【40%】我负责编写Python脚本,利用Playwright实现网页自动化操作,实现了对招聘网站岗位信息的自动化搜索和筛选。通过异步编程提高了效率,并利用JSON存储数据。最终,成功实现了按照设定条件匹配并展示符合条件的岗位信息的功能。 难点:网页内容的异步加载、岗位信息的动态变化以及数据存储与读取。通过深入理解异步编程原理,合理设置等待时间和事件监听器,以及使用JSON进行数据持久化,解决了这些难点。

0
2024-03-20 09:40
更新于: 03-20 浏览: 20