★ 20 2 0 /0 6 20 2 1 10 如祺 出行 APP 项目描述 该项目是 广汽集团、 腾讯、 广汽 公交 集团 和 滴滴 出 行 等 投资 的 广州 宸祺 出行 科 技 有限 公司 开发 的 一款 方便 现代化 出行 的 一款 app 、 小程序 和 H5 目前 开 通 的 城市有 广州、 佛山、 珠海、 东莞 等 城市, 订单量 从 上线 到 项目 已经完成 上 亿 的 订单量 目前 每天 平均 下单量 达到了 6 0 W 8 0 W 单 技术描述 Spring Boot Mybatis+ Spring Cloud Redis+ My SQL K afka Nginx+ MongoDB 责任描述: ◆ 乘客 API 和 司机 API 对于 如祺 出行 APP 业务 主流程 进行 鉴权、 身份 验证、 服务 限流 、 服务 熔断、 日志记录 、 负载均衡 ◆ 用户 模块: 用户登 录 、 用户退 出 、 用户注 册 、 用户校 验 、 用户信息 存储 ◆ 订单 模块: 专快车 下单 、 提升 下单 性能、 高 并发、 高可用 ◆ 根 据 系统 压测 与 测试 结果, 进行
1740
项目背景“城市内涝”“地铁内涝”“郑州720特大暴雨” 受众对象“地铁集团”“城市应急管理局”“交通局”“变电站”“河道” 主要功能:气象预告、积水推演、GIS一张图、驾驶舱、设备管理、防汛预案、应急联动、 水雨情监测、报警管理、公众平台、周边资源等功能 亮点功能“一站式辅助决策驾驶舱”“GIS系统”“数字孪生系统”“气象专题”
2960
项目背景“企业安全”“天津大爆炸”“安全隐患引导、教育、考试、审查一体化” 受众对象“企业”“集团”“安全部”“消防部”“对应审查企业其他部门
2460
远程协作能力 产品工作流程或方法论 部分案例 以及案例链接 擅长2b策划,项目推荐,组织,协调 擅长saas,平台,系统,后台 会用设计工具
2040
1风控向上对接初审系统,初审系统传json给当前系统,通过解析查表,从数据库中找到对应的算法,进行计算,向下对接终审系统,把结果用json的形式传给终审系统。 2责任描述: 负责风险场景,风险指标,风险数据项,风险任务管理与任务流程,整改任务管理与整改流程,等各个模块的开发、维护与测试。
1360
1.一站式为百信银行创新管理平台,产品定位saas系统,主要功能集社交,项目管理,需求管理,测试平台,devops敏捷研发体系于一体的综合管理平台,实现全行管理的降本增效 2.负责登陆模块的开发,整合satoken和JWT,处理网关拦截相关;负责测试平台相关联模块的开发,参与一站式系统需求讨论及技术方案设计;整合企业微信,向企业用户推送消息,负责相关需求数据库表结构设计;代码编写及接口文档编写;前后端联调并解决测试中遇到的bug。
2610
1.该后台功能涉及多系统间的调用,主要有appSever,用户中心,支付中心及新老核心系统,技术选型为阿里sofaBoot框架,通过RPC远程调用,功能涉及多方联调。该项目主要分为客户信息维护,和保单相关联的基本业务以及产品介绍和增值服务 2.本人主要负责新华保险中台项目的核心代码开发,负责appSever功能模块:用户注册登录,客户信息维护,保全项目信息变更,保单贷款,保单复效的开发任务,负责解决项目组在联调过程中相关的问题及上线后的bug修复,负责系统分析文档,系统接口文档,三方联调报告的编写。 3.系统中遇到的典型问题: 用户注册时生成了相同的客户号,原因同一时刻接口存在并发调用,解决方案,加入redis分布式锁; 测试环境中对保单进行具体业务操做时,调用的接口较多,核心试算接口响应时间长,容易超时,解决方案,多保单之间并行操锁,引入多线程; 切换数据源时使用了MybatisPlus+@DS,在事务的默认传播机制下导致切换数据源失败,原因默认状态时,会从数据库连接池获取数据库连接,导致数据源切换失败 服务器运行一段时间之后会变慢,j
4260
业务包含线上引入生源,线下老师授课、线上老师直播授课、线上课后疑难解答和朋友圈动态等业务。 技术栈后端:springboot+springcloud,springsecurity,mybatis-plus,redis,rabbitmq,视频直播功能对接的腾讯云平台 数据库使用:mysql 前端使用:*小程序
1100小程序
该小程序主要是用来做流量主的,主要实现技术为 微信原生小程序+微信云开发,主要功能有: 1. CMS管理后台来进行活动、参与者、活动规则、用户等这些模块进行管理。 2.小程序端有活动列表,活动查看,用户报名,点赞,排名,活动介绍等功能。 3.支持每个活动生成独立的小程序码,方便用户直接扫码查看该活动。
1890小程序
内容:项目描述: 项目: 这一个项目主要是对接AI智能识别系统,项目做的就是车牌,集装箱的箱号,iso号等的光学智能识别,然后和另外一个公司给的数据相互对比,如果没有问题,智能理货.有问题由人为修改.然后把客户想要的数据给到客户,以及码头(之前说的另外一个公司).公司是买整套软件的,对于不同用户,有mysql数据库,oralce数据库,sql server数据库. 主要负责的模块包括: 1.接收外部公司数据处理模块开发:通过express的框架路由或者是http和外部交付数据,按照需要的逻辑,建立数据库的表,插入对应或者是根据逻辑修改的数据. 2. 智能理货模块: 通过循环1秒查询之前的数据,是否有新的数据到来,根据这个创建对应的数据表,插入数据,实时查询数据,实时显示给用户,让用户处理. 3. 对于出现问题,对于服务器的(智能理货系统)版本进行更新以及修改.对于(智能识别系统)不同版本接口的修改以及更新. 4. 以及一些前端展示页面的书写,数据的相互交付. 业绩:项目所用技术: Nodejs+express框架+mysql数据库,oralce数据库,sql server 数据库+
6080物联网
内容:1. 整个项目主要目的是为了给`全球用户`一个可以使用杠杆炒黄金、炒汇率的一个平台,整个平台拆分为十几个块业务,包含:用户系统、管理用户后台系统、公司个人主页、公司员工后台管理系统、数据管理系统等。 2. 个人属于用户系统、管理用户系统 主要负责的模块包括: 3. 会员中心个人用户的开户:自身数据库的增加数据以及其他相关连系统的数据处理 4. 会员中心个人kyc认证:个人详细资料填写,验证是否本人 5. 设置页面:验证邮箱、验证电话号码、创建用于交易的账号、更改密码、收款渠道等 6. 市场咨询: 各种第三方的国际信息,汇率信息,财经报道等 7. 入金、出金:通过渠道让用户打钱进入我们的操作平台,从我们平台取钱出来,用户交易的数据展示,平仓未平仓等各种数据。 8. 在管理用户系统,做各种管理用户的权限,以及确认用户是否入金、出金等。 业绩:项目所用技术: (由于我们做的分布式微服务,有多个项目,多个项目可能使用不同东西以及框架) Nodejs+express框架+vue js。typescript+nest框架+vue。 php语言+ jquery架构。+mysql数据库,
2010商城
一站式的智能运营平台 1. 用户的自定义圈选 2. 触发的条件,支持一次性、重复触发及事件方式触发 3. 触达通道配置,该功能技术上是动态表单的方式来实现的 4. 运营看板,可以进行追踪运营的效果,使整个运营形成闭环
1320企业服务
后端nodejs开发,编写mvc的mc层,以及与其他的公司外部接口的数据相互交付,和一些前端代码,使用vuejs ,angular js等 项目为一个2B,2C平台的销售购买。涉及客户端商家端。 ● 项目以敏捷迭代,版本控制上线需求 ● 个人参与核心模块: 询报价模块(公司主要业务)、轮胎模块(千亿市场目标是几十亿的交易量)等 ● 封装apollo包等作为公司node项目的配置 ● 为了发版控制版本、开关、日志主动推送、发钉钉企微等控制管控项目逻辑 ● 参与技术小组中台的node组技术升级: ● 分析AST,输出当前api调用了哪一些接口等链路 ● git hooks做commit格式、test模块、lint效验. ● 搭建alinode监控转测环境,可用于复现问题压测等 ● 各种lint规则,代码封装作为中台提供等等 ● 询报价: ● 以识别拍照、照片的vin作为识别车辆车型 ● 获取车型走新能源、中端车、高端车不同模块 ● 根据车型匹配零件、商家等等发布询价模块 ● 做商家端作为报价,各种配置
2940商城
主要爬取新浪微博用户的个人信息、微博信息、粉丝和关注。代码获取新浪微博Cookie进行登录,可通过多账号登录来防止新浪的反扒。主要使用 scrapy 爬虫框架。 设置分布式中有一台机充当Master,安装Redis进行任务调度,其余机子充当Slaver只管从Master那里拿任务去爬。原理是:Slaver运行的时候,scrapy遇到Request并不是交给spider去爬,而是统一交给Master机上的Redis数据库,spider要爬的Request也都是从Redis中取来的,而Redis接收到Request后先去重再存入数据库,哪个Slaver要Request了再给它,由此实现任务协同。
1090
可视化的方式搭建BI报表,其中主要模块有: 1. 数据源,主要是sql的方式来创建数据集 2. 图表,支持20+的可视化图表,其中复杂的有多维表格、地图等图表 3. Dashboard,支持网格自由布局的方式来创建看板,目录采用树形导航式的方式。
2220企业服务
1. 采用DataX自带DRDS API对生产数据进行卸载 2. 采用Hive on Spark的方式搭建离线数仓,MR引擎替换成对应Spark引擎,比MR引擎速度快很多,基于HDFS进行数据存储 3. 采用维度建模理论,业务表增量同步,维度表全量同步 4. 数仓分层:ODS、DWD、DIM、DWS、ADS 5. ODS:原始数据层,存放未经过处理的数据,起备份作用 6. DWD:明细数据层,根据数据清洗规则将ODS层进行清洗 7. DIM:公共维度层,用于存放维度表 8. DWS:汇总数据层,基于指标需求,进行指标拆分。存放公共维度统计的汇总表 9. ADS:数据应用层,基于上述四层,根据需求对各大指标进行分析计算,存放各项统计指标结果 10. 使用shell脚本实现,对数仓加工sql的调用,对接mysql数据源实现数据可视
1810云计算
1. 参与需求分析以及数仓架构设计 2. 使用Flink接收Kafka卸载的binlog数据,进行数据拆分,推送到下游Kafka的不同Topic中 3. 读取分流后的数据,利用Flink API将DRDS中维表读取到内存中,进行流表与维表Join实现合并,形成数据宽表,推送到下游Clickhouse接口表对应的Topic中 4. 参与Clickhouse物化视图的搭建,并基于Clcikhouse物化视图统计指标 5. 日常维护hadoop集群,解决flink任务异常关闭和Hadoop集群宕机,完成相关优化
1170云计算
1、根据客户身份证查询所有未出租的车辆信息 2、进行出租 3、多条件模糊查询和分页 4、检查单修改 5、导出检查单 6、统计分析 7、车辆列表 8、车辆车辆分页和模糊查询 9、车辆添加、修改、删除
2170
项目介绍:采用机器学习方法对海洋中多个变量信息进行预处理、分析和预报,对海洋信息进行深入研究,最终 展示出 预测情况和海洋相关知识普及的一整套系统; 项目内容:海浪高度数据预测,方法一是采用将变分模态分解技术和加入了注意力机制的长短期记忆神经网络组成的混合 模型,对单变量浪高数据进行预测、重构得到结果;方法二是采用加入了注意力机制的长短期记忆神经网络和基于梯度提 升树的 CatBoost 模型对浪高进行多变量因素的研究,两种强异质模型的预测结果再次重构得到预测值; 项目成果:两篇小论文被中文核心录用,一篇已经见刊,两个发明专利进入实审; 项目收获:从理论上了解将机器学习方法应用于实际问题,阅读文献了解前沿研究进展,构建解决问题的逻辑框架
1340人工智能
1、将execl中的数据导入到系统中或在系统中填报数据。 2、根据不同的需求将数据进行划分统计。 3、将统计的数据导出execl或打打印出来。 4、根据数据进行图形分析。
2140
当前共161790个项目
×
寻找源码
源码描述
联系方式
提交