GG0241
1月前来过
全职 · 300/日  ·  6525/月
工作时间: 工作日08:00-18:00、周末00:00-00:00工作地点: 远程
服务企业: 4家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

1、热爱编程,勇于钻研,具有较强的责任心,代码能看懂,不懂的技术哥们会百度。2、适应能力强,能够很快的融入到工作环境中,嘎嘎能熬夜,只要给哥们机会,哥们改代码能改到凌晨两点多。3、学习能力和动手能力强,态度严谨,具有团队合作精神,哥们虽然会的不多,但是你要相信哥们,百度一搜啥都有,只要你需要,哥们能现学java。4、对软件设计兴趣浓厚,以积极的心态迎接新技术、新潮流、新挑战,新的东西哥们虽然不会,但是只要是能用的上的,哥们能熬夜学。5、给哥们一个机会,哥们给你一个奇迹。

工作经历

  • 2021-06-07 -2022-12-12山西微末科技python软件开发

    项目一: 项目名称:视频监控智能分析平台 项目架构:liveGbs、Nginx、activate、MySQL、Flask、Redis 项目描述:通过视频监控智能分析平台统一管理,依托后台AI实时分析视频画面,生产危险行为告警,web端实时语音提醒,在告警处置端充分考虑实施人员的方便,实施人员可***进行处理,并提交给相关人员审核,实现对告警的闭环流程。 个人职责: 1、参与整体业务规划,参与数据库结构设计。 2、负责AI模型训练、图像识别详情等核心功能模块开发。 3、项目过程中部分技术类、业务类文档编写,负责分析并处理相应的系统故障。 技术描述: 1、使用Redis缓存,减轻数据库压力。 2、使用RabbitMQ消息中间件实现分布式事务,保正事务最终一致性。 3、使用多线程同时获取数据实时动态分析监控视频,提升用户体验。 4、使用yolov5进行模型训练。

教育经历

  • 2019-09-01 - 2022-07-01河北水利电力学院软件技术专科

技能

Flask
爬虫
0
1
2
3
4
5
0
1
2
3
4
5
作品
爬虫

爬虫主要使用的是java和python语言,java语言是Python语言写爬虫的最大竞争对手。Python与java相比有很多优点,利用python写爬虫程序比较简洁,高效。python含有第三方urllib库,一个最基本的网络请求库,是用来写爬虫的好工具。学习用Python语言爬虫必须要对python的基本语法规则要有一定的了解。我在大一寒假的时候学习过python语言的一些基本语法知识,当时还照着书做过一个用python语言写的游戏。差不多都一年半没碰过python语言,我在图书馆找了一本《一天学会python》的书,用了两个多小时看完了,对Python语言的一些基本语法规则及使用更加熟悉了。然后我就开始了我的爬虫之旅。 开始爬虫之前有些基础知识必须知道,这些知识是爬虫必须知道的基础知识: 1、http协议:超文本传输协议,一种发布和接收HTML页面的方法,80端口,浏览器一般默认的都是80端口 2、https协议:http协议的加密版本,在http下加入ssl层,443端口 3、URL详解:统一资源定位符(就是浏览器上方的网址)一个URL一般由以下几个部分组成: scheme://host:port/path/?query-sting=xxx#anchor scheme:协议一般为http、https、ftp host:主机名或者域名例如www.baidu.com或者IP地址,域名是IP地址的简称 port:端口号,浏览器一般默认80端口 path:查找路径 query-sting=xxx:查询字符串例如wd=python anchor:锚点,前端用来做页面定位 在浏览器中请求一个URL,浏览器会对URL进行一个编码,除英文,数字和部分符号外,其他的全部使用百分号+十六进制码值进行编码。在urllib库里面有urlencode()函数对中文,符号进行编码,parse_qs()函数对中文、符号进行解码。 4、http常用请求方法: post:向服务器发送数据、上传数据,对服务器产生影响 get:只能从服务器获取数据,不会对服务器产生影响 http请求方法详解 5、http协议常见响应状态码 200: 请求正常,服务器正常返回(数据不一定正确) 301:永久重定向 302:临时重定向 400:请求的URL找不到,URL错误 403:服务器拒绝访问 404:not found 500:内部服务器错误

0
2023-03-31 18:45
爬虫

传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。 相对于通用网络爬虫,聚焦爬虫还需要解决三个主要问题: (1) 对抓取目标的描述或定义; (2) 对网页或数据的分析与过滤; (3) 对URL的搜索策略。

0
2023-03-31 18:47
爬虫

1.scarpy,mysql,redis 2.线程池,多进程 3.通过爬虫爬取网页数据下载链接,存入数据库 4.挑选种子URL; 5.讲这些URL放入带抓取的URL列队; 6.取出带抓取的URL,下载并存储进已下载网页库中。此外,讲这些URL放入带抓取URL列队,进入下一循环。 7.分析已抓取列队中的URL,并且将URL放入带抓取URL列队,从而进去下一循环。

0
2023-03-31 18:48

好评度
  • 专业(强烈推荐)
  • 按时(强烈推荐)
  • 态度(强烈推荐)
成功率 0 % 1 人评论
用户评价

用户869027
proginn0212005155
ok
更新于: 2023-02-27 浏览: 257