技术栈:React、react-router、Ant desgin、Ant desgin ProTable、权限中心、单点登录、less、国际化配置。 参与情况:同样也是去年的新项目,全程参与其中。实现功能主要包括全局中英文国际化配置、表格编辑关闭打开功能、搜索框模糊搜索以及防抖功能、表格内容自定义排序、隐藏、打开并且保存为用户个性化设置、接入单点登录和权限中心保证了不同用户拥有不用权限看到内容也是不同。提升了财务、营销的同事的工作效率。去年年会收获公司小组项目荣誉奖。
1480 PC网站
技术栈为:Vue3全家桶、单点登录、Ant Desgin、css3、vant、权限中心,canvas绘图 参与情况:这是一款针对公司内部员工和部分访客使用的系统,去年新启动的项目,从项目初期我就参与在里面。目前完成的内容有访客邀请和管理、挪车运用、组织管理、快递管理、租房管理等。使用Vue3以组件化的思想进行开发。后期将会打包成成品管理系统销售。
1880电商
材料价格:信息价、市场价的检索; 造价软件、定额下载; 工程相关文库的在线检索、阅读; 积分商城:兑换积分商品;
880webapp
航展资讯:展商、会议、直播、云上展馆等内容 航展服务:找餐厅、交通、会议日程等内容 我的:个人/展商信息。
1080APP
为办公室电脑打驱动 安装打印机 为用户添加共享账号 网络布线 重装系统 戴尔服务器装系统,磁盘阵列等。远程登录服务器,网上行为管理
1670运维
AIGC方向的 AI 绘画产品: 1.海外版 Maze Guru ,创作 WEB端、Discord 机器人、移动端,三端产品从0~1产品设计和,独立负责和把控整个产品迭代 2.无界版图(国内版),的 AI 创作模块、数字版权交易模块的产品设计和项目管理 3.AI 专业版,Hypernetwork、Dreambooth 和 LoRA 模型训练
1980
数字货币行情、区块链数据于一体的综合型数据服务商。 1.链上数据和地址分析 鲸鱼地址监控、聪明LP地址分析,帮助投资人捕获交易机会 2.NFT数据分析 爬取,行情、数据、资讯、研报 3.归因分析 交易模型设置、归因分析、风险收益归因
1370
Maze NFT交易平台 1.NFT mint流程 2.NFT交易流程设计 3.NFT项目后台管理 4.NFT合成和运营活动产品设计 5.web3平台玩法需求分析和调研
990
该大屏数据展示主要分为资产规模、理赔数据汇总,主要事故成因分析,投保险种分析,集团资产规模,挽回损失金额等模块。 使用者根据该数据进行汇报演示,以及后期进行了系统嵌入,可长期维护使用。 主要负责整体的大屏数据开发,采用echarts,加入了折线图、饼图等可视化图标展示。 并且加入了地图展示以及地图下钻查看等功能,用户可以通过全国地图查看整体数据,也可进入下级省份查看省份数据等。
8280大数据
这个项目是HSBC的 Content Service 系统开发,这套系统提供给香港,印度,英国的hsbc员工使用。该系统主要完成了对接 IBM FileNet 系统去查询订单数据,给其他上游系统提供数据查询功能,这套系统提供了RestFul 风格接口,使得多个上游系统可以轻松的处理订单的增删改查业务。 我在本项目中,负责部署后台服务器集群环境,部署redis集群环境,部署RabbitMQ环境,搭建ftp服务器,完成数据库的设计,使用spring boot 框架完成后台代码模块的代码开发。参加需求讨论,负责向客户进行阶段性展示。
2800金融
后台开发,对DB2数据库中的不规范数据进行筛选和治理,联合各应用负责人对相关数据进行分析和修 改,用JCL编写修数的ONETIME 后台开发,芯片卡维护交易,对客户芯片卡账号进行增删改查等常规维护操作 后台开发,芯片卡注销记录统计,对已激活并且被注销的芯片卡进行统计,然后输出到新命名的VSAM文件中 后台开发,对接其他项目组,完成月度和季度的软件测试联调 后台开发,维护各类接口程序
16303C
某平台的用户资产模块功能设计及运维调研方案 某平台的用户资产模块功能设计及运维调研方案 某平台的用户资产模块功能设计及运维调研方案
1780CMS
某平台的用户资产模块功能设计及运维调研方案 某平台的用户资产模块功能设计及运维调研方案 某平台的用户资产模块功能设计及运维调研方案
1510文档原型图
某平台的商城和用户功能模块设计,负责整体模块设计、架构及功能实现 某平台的商城和用户功能模块设计,负责整体模块设计、架构及功能实现 某平台的商城和用户功能模块设计,负责整体模块设计、架构及功能实现
2540H5网站
项目是一个电动车充电的小程序,使用的驴充充的充电桩,小程序扫码充电,使用了netty框架和硬件对接,数据库使用mysql,主要功能包括扫码充电,充值,订单等。
5650微信小程序
1. 数据的采集: scrapy_redis框架对主流门户网站进行数据采集 2. 数据反爬处理: 对个别门户网站的数据采集做一下逆向处理 3. 通用式采集: 对门户网站的数据进行融合,集成在scrapy框架里处理 4. 数据存储: 采用redis缓存+mysql长期存储 5. 服务端部署: 服务器采用Ubuntu22版本。docker容器,来进行主从模式的分布式数据采集。用到分布式爬虫管理框架Gerapy,便于程序的部署和管理。对一些特定的数据采集模块进行定时任务。 6. python端数据处理: 主要处理逻辑, 数据过滤。单机数据采集调试, 数据库之间的交互
1770爬虫
负责了HSBC的 Walmart 订单系统开发,这套系统提供给香港,新加坡,英国的hsbc员工使用。该系统可以增加,删除,查看,修改订单。Ops使用时,分为2级角色,操作员和管理员。第一阶段,新订单生成,操作员负责录入订单数据,完成订单提交;管理员check无误后,审批通过,订单状态变更,如果发现订单数据有误,则进行退回操作,订单状态变更。第二阶段,根据付款政策,操作员新增付款信息数据,计算利息,手续费等数据,再次提交订单;管理员再次check相关信息,做approve和reject操作。当订审批通过后,操作员和管理员可以生成报告,并且通过email发送订单信息给相关的人员。第三阶段,当交易完成后,操作员更新订单状态,管理员check,做关闭订单操作,同时,操作员和管理员可以生成报告。这套系统在导入订单信息时,分为手动输入数据,自动导入数据文件 。其中手动输入数据时,Ops需要登录系统,根据单据信息,手动输入订单数据;自动导入操作,Ops先将数据文件上传到ftp服务器,然后通过系统可以导入数据文件,批量操作。
2170 PC网站
负责了HSBC的 Walmart 订单系统开发,这套系统提供给香港,新加坡,英国的hsbc员工使用。该系统可以增加,删除,查看,修改订单。Ops使用时,分为2级角色,操作员和管理员。第一阶段,新订单生成,操作员负责录入订单数据,完成订单提交;管理员check无误后,审批通过,订单状态变更,如果发现订单数据有误,则进行退回操作,订单状态变更。第二阶段,根据付款政策,操作员新增付款信息数据,计算利息,手续费等数据,再次提交订单;管理员再次check相关信息,做approve和reject操作。当订审批通过后,操作员和管理员可以生成报告,并且通过email发送订单信息给相关的人员。第三阶段,当交易完成后,操作员更新订单状态,管理员check,做关闭订单操作,同时,操作员和管理员可以生成报告。这套系统在导入订单信息时,分为手动输入数据,自动导入数据文件 。其中手动输入数据时,Ops需要登录系统,根据单据信息,手动输入订单数据;自动导入操作,Ops先将数据文件上传到ftp服务器,然后通过系统可以导入数据文件,批量操作。
2510 PC网站
该系统分为寿险协议管理、寿险新单管理、保全管理、理赔管理、续期管理、产险管理、保费审核、客户管理等多个模块。 对使用者来说,是支持公司保险业务日常运营的重要平台,综合了保险中介公司寿险、财险、代理人管理等多种业务需求,形成的统一业务运作管理平台。 其中负责激励方案开发、间接利益项开发、车险和非车险批单优化、推动费管理优化等任务模块。 以vue、elementui等技术栈为主,实现页面开发与接口联调,帮助客户完成二期上线。
7510web
1、该项目是服务客户外汇交易订单系统,代付交易平台,对接了多个第三方交易平台(支付宝、微信、财付通、爱侬、拉卡拉、瀚银、云闪付) 2、技术采用的是: SpingBoot、Mybatis、Mysql、Dubbo、ActiveMQ、JQuery,Nginx、Tomcat 3、负责代付系统以下模块开发:订单管理(代付订单/充值订单/提现订单)、商户管理、对账管理(商户对账单)、系统管理(安全设备、操作日志)
2780
当前共162032个项目
×
寻找源码
源码描述
联系方式
提交