黄国华
1月前来过
全职 · 800/日  ·  17400/月
工作时间: 工作日19:00-24:00、周末8:00-20:00工作地点:
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

本人毕业于广东工业大学计算机科学与技术,来自广东梅州。

总的职业生涯一共有两段。第一段是量化交易方面,主要的工作内容是交易模型的开发与回测。第二段是IT方面,主要是负责爬虫的开发、数据分析、服务器后端等python为主的开发

n Python/设计模式/Asyncio/Pytest

n Django-Vue-DRF/Tornado/Sanic/Flask

n Mysql/Redis/MongoDB

n Nginx/Openresty/Consul/Consul-template/gRPC/

n Kafka/RabbitMQ/Celery

n Docker/Docker-Swarm/Docker-compose/Docker-stack

n Ansible/Jenkin/Supervisor

n Python爬虫/scrapy框架/scrapy-redis分布式系统构建与部署/

n Opencv/Tensorflow2.0(CNN)(LSTM)(RESNET)

n RL(Q-learning)(Sarsa)(Sarsa-lambda)(DQN)

n 量化交易算法开发与回测分析、策略构建、组合分析等

工作经历

  • 2022-08-01 -至今广东明日联合数组科技有限公司高级后端工程师

    负责开发ai中台产品。 主要负责ai算法模型中的数据管理方面的处理,已经交互式项目的功能实现/算法资源的申请与调度,算法镜像的编辑,管理等

  • 2021-08-01 -2022-08-01生命奇点高级后端工程师

    分析业务逻辑,确定业务修改点与拓展点等,确定代码架构所使用的设计模式,基本的代码框架等等 (1)数据同步脚本框架 项目存在大量的数据是需要在不同数据库之间同步的,因此基于schedule重新开发了一个数据同步框架,可以实现快速开发以及规范化的代码编写 (2)基本代码框架 拟解决的关键问题: 1、代码交接的舒畅性以及buge的快速修复 日志的统一处理,接口参数的统一处理,错误的统一处理,结果的统一处理,部署文件方式等的统一 2、业务的拓展性。 主要运用桥接设计模式,解决多个病种和模型的灵活适配。

  • 2020-09-01 -2021-07-01广州万联科技有限公司高级后端工程师

    一、服务器api接口开发与维护 Sanic异步框架,Django,flask,gRPC等的API接口 主要采用设计模式:抽象工厂、责任链 主要技术点: (1)协程中开启线程与线程中开启协成、协成的并发 (2)redis\Zookeeper分布式锁等等 (3)日志埋点 (4)接口测试pytest (5)消息队列Rabbitmq的使用 (6)mysql查询语句的性能优化 二、Django后台管理的开发与维护 Django后台管理采用xadmin 三、验证码识别模块的开发与OCR驾驶证、身份证识别开发 验证码识别主要采用tensorflow的CNN卷积神经网络模型开发。 OCR驾驶证识别与身份证识别采用paddlepaddle开源OCR识别模型配合付费OCR接口实现。 网络实现框架:Sanic,主要采用设计模式:桥接模式、工厂模式、对象池模式 四、Nginx性能调优 文件IO、数据缓存、网络IO、模块优化等 五、架构重构

教育经历

  • 2011-11-01 - 2015-07-01广东工业大学计算机科学与技术本科

    大一担任班长,领三等奖学金,双专业(工商管理)

技能

0
1
2
3
4
5
作品
AI中台

(1)功能模块主要包括: 1.数据管理(数据源,数据集等,主要是为ai模型训练所需的数据进行管理,标注等 2.算法管理(交互式项目,jupyternbook,资源申请,运行计划与管理等) 3.角色功能(团队/个人/机构,项目负责人/管理员/开发人员等) 4.ai项目管理(项目申请/发布/进度等) (2)我主要负责数据管理与交互式项目算法流程的设计与各算法节点的功能设计。

0
2023-11-11 12:12
广东省疾病预防控制多点触发系统

基于docker构建的微服务架构 A. Nginx(网关) B. Consul(服务注册与发现/配置中心) C. Django/Flask/FastsAPI/Sanic(WEB服务) D. Redis(缓存) E. Mysql/Elasticsearch (存储) F. RabbitMQ(消息队列) G. Docker(registartor) 负责算法部分总架构,所有后端流程均参与

0
2023-11-11 11:54
环评信用平台数据分析

(1)数据爬取 采用scrapy框架数据爬取,scrapyd分布式部署,scrapydweb 可视化管理与运行爬虫 (2)数据分析 根据专业人士的分析思路进行数据的清洗,聚合,汇总等 (3)图表显示 网站前端:采用vue框架、使用echarts可视化图表库和element-ui 网站后端:采用django、django-rest-framework、uwsgi+反向代理、服务器nginx、dokcer-redis 参与所有链条

0
2023-11-11 11:46
更新于: 2023-11-11 浏览: 47