没有找到合适作品,全国有 1115805 名开发者可以为您开发,您可以 查看全国开发者 或者 发布您的需求

优秀作品推荐

该系统围绕医院“诊前-诊中-诊后”全流程设计,包含7大核心功能模块:1.门诊管理:支持线上线下挂号、分诊叫号、医生开方(关联药品/检查项库)、处方审核,实时同步患者就诊进度;2.住院管理:覆盖入院登记、床位分配、医嘱执行、费用记账,可批量导出住院清单,自动预警超期住院;3.药品管理:实现药品入库/出
230Python企业服务
项目名称:项目三:基于头条巨量引擎,百度营销和阿里汇川爬虫软件架构:python3,cv2(open-cv),muggle-ocr,pyppeteer项目描述:主要运用多进程和多协程通过opencv和muggle-ocr绕过滑动验证码以及复杂图片的验证,实现自动化入库投放渠道信息,通过spark和p
570Python云计算
大数据平台产品系统
项目名称:项目一:开发大数据平台,基于大数据平台做用户画像软件架构:flink,hadoop,spark,presto,java,python3,mapreduce,shell,kafka,sklearn,doplinscheduler项目描述:每天从百度上百亿数据刻画用户画像来提高用户续费率。责任
540Python云计算
产品功能列表优化说明现金头寸管理实时监控和管理资金余额,支持多账户、多币种的现金流调度与结算,帮助企业优化流动性,降低闲置资金成本。证券可用管理精准跟踪证券持仓及可用数量,支持质押、冻结、交易可用量管理,确保交易顺利执行并提高资产利用效率。实时收益与业绩归因提供投资组合实时收益监控,并进行多维度业绩
570Java人工智能
企业画像系统产品系统
1.多维度查询企业画像应用目前支持17个维度的企业信息查询,涵盖了工商、税务、进出口、电力、社保、融资等信息。2.图数据库的应用1)关系图谱关系图谱是利用图数据作为数据依据,以关系图作为可视化的展示效果,展示企业与企业、企业与自然人、自然人与自然人之间的关系,绘制成庞大的关系网络,形成企业群组,并在
830Java政务
1、功能模块:接入量子随机数发生器;随机数分布存储与管理;密钥额度、使用记录与用户管理;密钥安全分发服务;密钥分发协议;密钥分发SDK2、主要功能:把量子随机数发生器产生的密钥依据用户的使用情况源源不断的安全的分发使用端
770Java网络安全
大数据平台产品系统
大数据平台是一站式大数据开发管理平台,基于 Hadoop、Spark 等大数据计算引擎,提供数据开发、任务调度、数据资产管理和数据质量管理等全方位的大数据产品服务。涉及 dataworker 平台、datax 数据同步服务、dzlog 日志数据采集服务、小海螺服务、jobserver服务、thrift-server 服务、jupyter 服务等。 技术栈:springboot、nginx、spring-security、jwt、hive、hbase、elasticsearch、clickhouse、kafka、mysql、redis、jupyter、livy、ai应用开发
810Java大数据
项⽬简单描述:通过前端埋点收集⽤⼾⾏为数据数据,业务数据采集采⽤同步策略存储在Mysql,⽤户⾏为数据采集使⽤flume通道,设置ELT拦截器获取⽇志时间戳,通过kafka消息队列暂存⽇志⽂件,业务数据通过Maxwell暂存kafka,所有数据经过⼀系列操作最终流⼊Mysql,通过数据接⼝可以⽣成可视化报表 技术栈:Hadoop,Zookeeper,Kafka,Flume,Spark,Hive等 项⽬总结:本项⽬主要采集电⼦商务平台的⽤⼾⾏为数据和业务数据,业务数据通过调研最晚可到达200天,每次可抽取 处理200天的数据,通过⼤数据组件分析⽤⼾⾏为,利⽤分析结果达到推测⽤⼾喜好,推荐类似商品的效果
1480Python大数据
大数据项目产品系统
1. 车企车辆数据处理 2. 车辆行程划分,电子围栏 3. 驾驶行为模型开发 4. 车辆实时,离线数据开发1. 熟练掌握Java、Scala 熟悉Linux 、Shell、Python 。 2. 熟悉MaxComputer、Hologres、clickhouse 、Presto、HBASE、Hive、Flink 、Spark、Kafka、Datahub等大数据处理技术,熟悉性能优化和问题排查等。 3. 熟悉数据仓库开发,数据建模、大数据环境搭建、大数据架构设计 。 4. 对数据采集、数据建模、数据开发、数据治理、数据应用等大数据领域有实战经验善于解决问题和分析问题,攻关系统研发中的重难点技术问题,并制定相关的技术解决方案。
1790Java数据查询
主要是使用oracle的存储过程去开发报表,针对业务侧的需求提供数据支撑,将数据对接到指定的可视化报表展示平台,完成地区数据的分析。主要使用传统数据库oracle去完成数据分析工作,数据的采集,清洗和加工,和数据的建模,和数据的治理,敏感数据的脱敏,做到生产库没有用户敏感数据,完成不同业务域的数据分析工作。主要是使用oracle的存储过程去开发报表,针对业务侧的需求提供数据支撑,将数据对接到指定的可视化报表展示平台,完成地区数据的分析。主要使用传统数据库oracle去完成数据分析工作,数据的采集,清洗和加工,和数据的建模,和数据的治理,敏感数据的脱敏,做到生产库没有用户敏感数据,完成不同业务域的数据分析工作。
1020hdfs其他(Others)
×
寻找源码
源码描述
联系方式
提交