proginn1947210402
1月前来过
全职 · 300/日  ·  6525/月
工作时间: 工作地点:
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

我是yk,主要会python的Web 自动化测试、自动化脚本、网络爬虫等

工作经历

  • 2023-07-01 -至今江西中节能环保管家

    作为环保管家,我在过去几年中积累了丰富的经验。以下是我在这个领域的经历描述: 1. **教育背景:** 我拥有环境科学或相关领域的学士学位,这使我对环境问题有深入的理解。 2. **政策了解:** 我密切关注环保政策的变化和发展。我了解国家各种环保法规,并能够将其应用到实际工作中。 3. **项目管理:** 我具有项目管理经验,能够有效地组织和协调环保项目。这可能涉及到资源调配、时间管理、团队合作以及与利益相关者的沟通。 4. **技术知识:** 我对环保技术有一定了解,包括可再生能源、废物处理技术、环境监测设备等。这些知识使我能够提出创新的解决方案,推动环保工作的进展。 5. **数据分析能力:** 我能够收集、分析和解释环境数据,从中发现问题并提出改进措施。数据分析可以帮助我们更好地了解环境状况,并制定针对性的环保计划。 6. **持续学习:** 我持续关注环保领域的新发展,不断学习新知识和技能。这包括参加培训课程、研究最新的环保技术和方法,以及与同行交流经验。

教育经历

  • 2018-09-01 - 2022-06-01西南大学环境科学与工程本科

技能

0
1
2
3
4
5
作品
自动word查找字符

查找字符程序能够实现以下功能: 1.自动查找Word文档中的特定字符,该功能需要全天候运行,并且能够重复执行。 2.支持随时修改查找字符库,并且修改后的字符库立即生效。 3.查找字符库需要支持富文本,例如emoji表情或其他特殊字符。(不太多,简单的) 使用python-docx库来读取和解析Word文档,使用Qt的定时器来定期执行自动查找功能,使用PyQt实现GUI界面以及对字符库的编辑和实时更新。在 PyQt 中,使用 QTextEdit 来实现富文本编辑功能,使用 setHtml 方法来设置富文本内容,这样就可以支持显示包含 emoji 表情或其他特殊字符的文本了

0
2024-02-23 11:31
简单基础个人博客

项目功能模块: 文章列表展示:用户可以查看所有文章的标题,并点击查看详细内容。 文章详情展示:用户可以查看单篇文章的标题和内容,并在此页面下发表评论。 文章管理:用户可以创建新文章、编辑已有文章、删除自己的文章。 评论管理:用户可以在文章详情页发表评论,也可以删除自己的评论。 用户认证:用户可以注册新账号、登录、注销,系统能够验证用户的身份并限制部分操作权限。 我负责的任务: 设计和实现了项目的整体架构,包括路由函数、HTML模板、数据库操作等。 使用了 Python Flask 框架来搭建后端,利用 Flask-Login 实现了用户认证功能。 前端页面使用了 HTML 和 Jinja2 模板引擎,使用了简单的CSS样式进行美化。 最终成功实现了一个简单但功能完整的个人博客平台,能够满足用户的基本需求。 难点与解决方法: 用户认证的实现:用户认证是整个项目中较为复杂的部分,需要处理用户注册、登录、注销等逻辑,并保证用户的登录状态。我通过阅读 Flask-Login 的官方文档和相关教程,以及参考其他开源项目的实现方式,最终成功地集成了用户认证功能到项目中。 数据交互与安全性:在用户创建、编辑、删除文章以及发表、删除评论等操作中,需要与数据库进行交互,并确保数据的安全性。我使用了 SQLite 数据库来存储用户和文章信息,同时使用了 Flask 提供的安全机制来防止恶意操作,如 CSRF 攻击等。

0
2024-02-23 11:21
网页抓取天气数据

这段代码是一个简单的 Python 脚本,用于从网页上抓取天气数据,并将结果写入 Excel 文件中。让我来简单解释一下这个脚本的主要部分: 1. 导入模块: - 使用 `requests` 模块发送 HTTP 请求。 - 使用 `BeautifulSoup` 模块解析 HTML 内容。 - 使用 `openpyxl` 模块操作 Excel 文件。 2. 创建工作簿和工作表: - 使用 `openpyxl` 创建一个 Excel 工作簿,并创建一个名为 "Weather Data" 的工作表,添加了两列标题:"日期" 和 "天气"。 3. **发送请求获取数据:** - 循环从网站上获取每个月的天气数据。 - 使用 `requests.get()` 发送 HTTP GET 请求,并将参数传递给 URL。 - 如果请求成功(状态码为 200),则解析响应内容。 - 使用 BeautifulSoup 解析 HTML 内容,提取所需的数据。 4. 解析和写入数据: - 使用 BeautifulSoup 找到包含每天天气信息的表格行 ``。 - 对每行进行迭代,提取日期和天气信息,并将其添加到 Excel 工作表中。 5. 保存工作簿: - 在每次请求后保存 Excel 文件。 最后,脚本以 "weather_data.xlsx" 为文件名保存了所有抓取到的天气数据。 这段代码是一个简单而有效的数据抓取工具,可用于从指定网站上提取天气数据并存储在 Excel 文件中,方便后续分析和使用。

1
2024-02-23 11:36
更新于: 02-23 浏览: 32