Python

Python是一种广泛使用的解释型、高级和通用的编程语言,[1]由荷兰数学和计算机科学研究学会的Guido van Rossum创造,第一版发布于1991年,它是ABC语言的后继者,也可以视之为一种使用传统中缀表达式的LISP方言。[2]Python提供了高效的高级数据结构,还能简单有效地面向对象编程。Python语法和动态类型,以及解释型语言的本质,使它成为多数平台上写脚本和快速开发应用的编程语言,随着版本的不断更新和语言新功能的添加,逐渐被用于独立的、大型项目的开发。Python支持多种编程范型,包括函数式、指令式、结构化、面向对象和反射式编程。Python解释器易于扩展,可以使用C或C++(或者其他可以通过C调用的语言)扩展新的功能和数据类型。Python也可用于可定制化软件中的扩展程序语言。Python
效能平台系统产品系统
该系统为提高公司员工部门效能,对接jira数据源进行分析和展示来提升部门整体效能为目的而形成。 1. 针对用户提出的重新登录进行权限系统的重新设计和优化 2. 针对系统出现的OOM问题进行问题跟踪和优化 3. 脚本平台出现的慢sql 1. 对于用户提到的数据源变更使用规则引擎实现 2. 对权限系统使用redis做持久层 3. 数据看板特殊数据结构存储在mongo 4. 使用python对原数据进行加工和清洗 5. Xxl-job定时对数据进行更新 6. 技术栈使用到了spring cloud gateway、open feign、eureka、oauth2等
400Java程序文档工具
通过构建智能语音客服系统,旨在为旅客提供高效、便捷、人性化的服务。 平台参与者包括:机场呼叫中心、信息中心以及旅客 功能架构设计 1、通过freeswitch语音网关接入机场已有华为语音网关设备,集成拨号计划,实现旅客语音接入 2、获取旅客语音流,利用asr技术将语音转成文本 3、利用通义千问文本大模型结合本地知识库,对文本内容进行处理得出应答 4、通过tts语音转译将大模型返回的结果转成语音,交给freeswitch播放
240JavaTTS/语音合成和处理
本项目以 “静态知识活化 + 动态交互赋能” 为核心,构建 “多模态知识库 + LLM 智能引擎 + 高拟真实时数字人” 三位一体的服务体系。通过将结构化(如产品手册、课程大纲、景区导览数据)与非结构化(如语音问答记录、视频教学片段、游客反馈文本)知识资源整合为标准化知识库,依托 LLM(大语言模型)实现知识的深度理解、精准检索与逻辑生成,最终通过实时数字人载体,将抽象知识转化为拟人化、场景化的交互服务,解决传统知识服务中 “响应不及时、交互不自然、场景适配弱” 的痛点,可广泛应用于商业服务、文旅体验、教育教学等领域,实现 “知识触达更高效、用户体验更沉浸、服务价值更多元” 的目标。
330PythonAI
HAP机器人流程自动化软件业务亮点与问题解决介绍 业务亮点: HAP机器人流程自动化软件具备全面且强大的功能体系。拥有可视化设计流程,让操作不再依赖复杂代码,业务人员也能轻松上手构建流程;集成OCR能力,可精准识别图片、扫描文件中的文字信息,实现非结构化数据的高效提取;支持Python调试,赋予用户利用Python强大功能扩展自动化能力的权限;具备AI持续集成特性,能不断优化自动化流程,使其更智能、高效。此外,涵盖系统文件、办公软件、网页等多场景自动化,还有丰富的海量模板,大幅降低开发成本与时间。 解决的问题: 在企业运营中,HAP软件致力于解决重复性、规律性人工操作任务耗时耗力的问题。例如,大量数据录入、文件格式转换、跨系统数据搬运等工作,易出错且效率低下。通过自动化流程,可减少人工干预,降低错误率,释放人力去从事更具创造性和价值的工作。同时,对于数据提取场景,OCR和元素捕捉等功能解决了从纸质文档、图片中获取数据难的问题;在多系统交互方面,软件能打通系统壁垒,实现数据流畅传输与业务协同,提升企业整体运营效率,助力企业数字化转型。
280PythonRPA
AI在线训练平台是一个面向企业和个人开发者的零门槛 AI 开发平台,为零算法基础的开发者提供定制高精度 AI 模型的服务,包括数据处理、模型训练、服务管理、模型部署功能模块。零代码交互式获取 AI 能力模型,助力各行业快速实现 AI 赋能物体检测模型用于定制识别图片中目标的位置、名称,适合有多个目标主体,或要识别目标位置及数量的场景。常见应用场景:视频监控、工业检测、零件计数等。 我负责全部的Java后端业务接口以及Python端AI能力接口。技术栈使用了Spring Boot以及Mybaitsplus框架来做业务侧API,Pytorch,MMDetection,Celery,FastAPI来做AI侧API能力开发。
340JavaAI
使用 SimpleImputer 处理缺失值 使用 StandardScaler 或 MinMaxScaler 对数值特征进行标准化/归一化 使用 OneHotEncoder 或 OrdinalEncoder 对分类变量进行编码 应用 SelectKBest, RFECV (递归特征消除与交叉验证) 或基于模型的特征重要性(如来自 RandomForest 的 feature_importances_)来选择最相关的特征,以降低过拟合风险并提高模型可解释性 使用 Pipeline 对象将预处理步骤和估计器(模型)链接成一个单一对象。这避免了数据泄露,并简化了代码。
250Pythonsklean8000.00元
互联网信息推荐算法安全评估平台(http://116.62.162.16/home)是一个面向算法治理与信息安全分析的专业工具。该平台支持从快手、微博、抖音、小红书等多类主流平台进行数据抓取与分析,实现对推荐算法行为的全面监测和量化评估。 平台核心功能包括宏观数据看板、账号群体画像分析、安全指标追踪等,能够精准识别如“诱导控制”和“干扰识别”等算法风险行为,并以可视化方式呈现其变化趋势。它已管理超600万账号、37类群体画像,支撑起对信息传播机制与算法影响的深入洞察。 该平台适用于监管机构、研究单位及平台企业,为其提供算法安全评估、舆论风险预警和治理策略制定方面的数据支持,最终推动推荐算法透明、可信、向善发展。
630PythonUI组件库
产品api无法实现对端口进程的批量整理、SAP与非SAP的自动判断、以及端口对应Web url的自动批量整理 通过本程序集,可使用万相主机安全api+蔷薇微隔离api,批量识别并整理可视化的,暴露至某个范围的机器端口、端口对应进程、进程对应weburl(如有),节省了暴露面排查时的手工操作。 1、实现某能源企业ERP项目梳理端口暴露面的需求; 2、使用python的requests包、openpyxl包等实现; 3、调用产品api实现非自带功能,实现多线程发包节省时间、增量判断节省人工成本; 4、部署至服务器定期执行。
170Python网络安全1000.00元
爬虫脚本源文件源码
行业:智慧农业、植物保护、农业信息化 业务场景:农业知识库构建、病虫害识别模型训练、数据分析和决策支持 功能模块:代理管理模块、请求调度模块(并发)、数据解析与存储模块、状态管理模块(断点续爬、增量更新)、定时任务模块 实现功能:自动爬取植小保小程序中的问答数据、病虫害识别结果、专家回复等。将爬取的数据结构化存储到数据库和本地文件中。支持增量爬取,避免重复爬取已处理的内容。支持高并发、代理轮换,提升爬取效率和稳定性。提供日志记录和错误重试机制,保证爬虫的鲁棒性。 技术选型:语言:Python 3,网络请求:httpx、requests,数据库:PostgreSQL,并发处理:threading + ThreadPoolExecutor,定时任务:schedule,JSON处理:json,日志管理:logging,代理服务:自定义代理池服务(通过HTTP接口获取代理)
340Python网络爬虫
KMblog 是一套面向交付的静态站点引擎,我们把“写作—构建—分发”整条链路打磨成一条可复制的 DevOps 流水线,让客户在零后端投入的前提下获得企业级性能与可维护性。 核心架构上,我们采用 Vue 3 + Vite 作为前端底座,利用 Vite 的原生 ESM 与 Rollup 双引擎,在开发阶段实现毫秒级热更新,在生产构建时则借助 Vite-SSG 预渲染全部页面,配合自动路由拆分与懒加载,首屏 JS 体积较传统方案缩减 60 % 以上。样式层使用 TailwindCSS 的 JIT 模式,按需原子类打包,最终产物 CSS < 10 kB;同时通过 PostCSS 插件链路自动处理浏览器前缀与压缩,无需额外配置即可满足 Lighthouse 95+ 的评分要求。 在内容处理层面,Markdown 通过统一的 remark-rehype 管道解析,抽象出可插拔的 AST 节点,任何自定义 Vue 组件都能以 `` 形式直接在正文中引用。构建时,我们利用 esbuild 将组件编译成异步 Chunk,运行时仅加载当前页面所需逻辑;全文搜索则基于 FlexSearch 离线索引,索引文件随构建产出,查询延迟稳定在 10 ms 以内,无需后端服务即可实现动态站点级别的搜索体验。 部署环节未来将内置 GitHub Actions 模板,流水线分为 Lint → Test → Build → Deploy 四阶段,平均耗时 90 秒即可完成一次灰度发布;产物可一键推送到 GitHub Pages、Vercel、Netlify 或任何支持静态托管的边缘节点,天然具备全球 CDN 缓存与 HTTPS 证书。 对客户而言,只需 fork 仓库、填写 `config.js` 中的品牌信息,即可在五分钟内获得一套可定制、可扩展、可自动交付的高性能博客系统;后续升级只需合并上游主干,CI 会自动回归测试并平滑发布,真正做到“写内容,不操心运维”。
570Python博客
新抖网站数据爬虫(数据采集),根据提供的主持人数据,使用selenium库,模拟浏览器操作,搜索主持人并获取需要的数据,有效规避反爬措施。 爬取内容(以月为单位):直播次数、总音浪、总音浪合人民币、平均单次直播时长、场均直播音浪、场均直播音浪合人民币、单场参与人数峰值、最常直播时长及占比、最常直播时间点及占比、带货直播次数、带货直播次数占比、总上架商品数、总商品品类、总商品品牌数、总涉及平台数、top商品品类、top商品品牌、top平台及占比。 将爬取到的信息梳理,生成Excel文件,方便阅读、使用和整理。
640Python爬虫
就是单纯的展示我有开发的能力以及技术,结合了html,python后端撰写的伪全栈开发,前后端不分离,服务器端渲染前端。采取redis的本地缓存技术存储验证码等数据进行验证,代码进行数据库数据自动写入修改。采用flask——Email包实现邮箱发送接受验证的功能,用以实现注册。采用css对页面进行渲染,使得页面更美观。
200Python网页开发工具
1.本项目简介:爬取飞瓜抖音网站,模拟浏览器操作,根据提供的主持人名单进行精确搜索、数据爬取,并将获取到的数据汇总,输出为Excel文件。 2、对飞瓜抖音网站进行搜索:按抖音号;飞瓜网站有反爬,不可以用selenium自动化登录,selenium打开后,配合手机扫描继续爬取。 3、爬取内容:名单中每个主持人的抖音名,抖音号,30天直播场次,30天直播销量,30天直播销售额,30天场均音浪(用于计算30天音浪增量)
630Python爬虫
ReducePicSize是一个缩小图片尺寸的小工具。 它可以批量把整个文件夹下的所有图片,按照设置的尺寸进行批量缩小。 读取时可以勾选包含子文件夹。 处理图片时,会保持图片的长宽比例不变。 工具提供了 运行后,工具会把图片的长或宽缩小到指定的像素值。 比设置像素更小的图片不会被改变。 工具支持的图片格式包括:JPG, PNG, BMP, GIF, TIFF, WEBP
240Python图片处理
1.工具介绍 PicSearch是一个基于纹理图像内容进行搜索的工具,直接通过上传纹理照片或图片即可找到相似的图片结果。 提供石纹、木纹等各种纹理的产品搜索,能根据客户随意拍摄的照片或图片,帮助企业精确找到本地图库中的纹理图片。 2、使用步骤 (1)点击上传按钮选择需要搜索的图片 (2)选择需要搜索的图片库目录 (3)开始搜索 (4)系统自动分析图片特征 (5)搜索完毕后相似图片会显示在结果区域 (6)双击结果图片的名称,可以打开图片查看
340Python图像识别
在大型交通枢纽,业务拓展和旅客出行需求增长使车辆通行管理难题凸显。传统人工管理效率低,难以适应高强度运行;基于传统 AI 算法的检测系统在复杂条件下识别准确率低,无法提供精准数据;部分现有系统兼容性差,限制功能拓展;系统维护复杂,成本高且易因维护不及时影响运行。这些问题严重制约交通枢纽车辆管理的高效、准确和安全,急需新的解决方案。我们的系统主要具六大功能模块,分别是用户管理模块、数据分析模块、摄像头管理模块、监控检测模块、在线识别模块。
370Python网页(Webview)
项目为爬取网易音乐、爱奇艺、酷我、QQ音乐、虾米音乐、音悦台中的新歌数据,并将数据整合,存储并输出为Excel文件。 1、其中内容包括:新歌数据、歌曲评论数据、MV数据等 2、使用的爬虫技术包括: 后端爬虫:如requests库,根据发送HTTP请求,并解析返回的HTML内容。 前端爬虫:如使用Selenium工具,模拟浏览器操作,如表单提交等,获取网页数据。 3、获取数据之后,将数据整理并输出为Excel文件,更易使用。
540Python爬虫
公司致力于各项软件开发项目,有多次大型政府项目系统开发经验,在软件开发项目上有丰富经验,研发及维护团队均是著名开发公司人员,致力于软件开发质量和服务的提升,软件开发是一个充满创造性和挑战性的领域,它将逻辑思维与解决问题能力相结合,旨在打造改善人们生活和工作的数字产品。它不仅仅关乎技术,更关乎团队协作、沟通和对用户需求的深刻理解。希望这篇介绍能为您打开一扇了解这个广阔世界的大门!
380C#Android10000.00元
1.项目基于开源项目ODOO定制开发。 2.项目具备完善的,高度可定制的权限管理机制。 3.项目高度模块化,可以根据用户需求任意增减模块。 4.项目集成了PaddleOCR模块,具备完善的文本识别功能。 5.项目具有完善的,高度定制的审批流程。 6.项目具有丰富的文档管理功能,可以方便高效的管理项目中的各种文档。 7.项目使用Python语言开发,可以方便的接入各种AI模块。
240Python工程项目管理
1. 基于WEB开发相关知识和工具,拟设计与实现一种晚点扩散仿真与分析系统,生成一个网页,为高铁网络晚点的问题的研究提供技术支撑。 2. 本项目采用前后端分离的B/S架构,主要使用的开发工具和技术栈如下: • 后端: o 编程语言:Python 3.8.20 o Web框架:Flask (轻量级Web服务框架) o 数据库:MySQL 5.7+ (关系型数据库,存储基础数据及分析结果) o 数据库连接库:Pymysql o 网络分析库:NetworkX (用于图的创建、操作、复杂网络指标计算等) o 核心算法库:random, collections.defaultdict (Python内置) o 其他库:requests (用于HTTP请求) • 前端: o 核心技术:HTML5, CSS3, JavaScript (ES6+) o 可视化库:ECharts (用于网络拓扑图、统计图表绘制和动态展示) • 开发环境与工具: o 操作系统:Windows o Python环境管理:Conda o IDE/编辑器:PyCharm • 数据存储: o 结构化数据:MySQL数据库 o 中间数据/缓存:JSON 文件 (例如,预处理后的网络拓扑数据、图表数据) 3. 系统主要包含以下三个核心功能模块: 1. 高铁网络结构分析模块: o 从数据库中读取高铁站点和线路数据,构建高铁网络模型(节点代表站点,边代表线路)。 o 计算网络的拓扑结构指标,包括:度分布、聚类系数、平均路径长度等。 o 对网络进行社团结构划分。 o 可视化展示:高铁网络拓扑结构图(节点可交互)、各类指标的统计图(如度分布直方图)、社团划分结果(在拓扑图上以不同颜色区分)。 2. 高铁网络晚点扩散模拟与分析模块: o 在已构建的高铁网络结构上,实现晚点扩散的仿真模拟。 o 支持采用SIS(易感-感染-易感)和SIR(易感-感染-移除/恢复)两种经典的传染病模型对晚点扩散进行建模。 o 用户可选择晚点源头节点,并可自定义参数。 o 动态展示晚点在网络中的扩散过程,标记出每一时间步的晚点节点和扩散路径。 o 统计并可视化展示每一时间步网络中晚点节点总数和未晚点节点总数的变化曲线。 o 用户可切换SIS/SIR模型进行对比分析。 3. 高铁网络关键节点识别模块: o 基于中心性的节点评估:  计算节点的度中心性 (Degree Centrality)。  计算节点的介数中心性 (Betweenness Centrality)。  计算节点的接近中心性 (Closeness Centrality)。  可视化展示各中心性指标的统计图或Top-N节点列表。 o 基于模拟统计的关键节点识别:  多次重复晚点扩散模拟过程(可设定不同源头或随机因素)。  统计在多次模拟中,各个节点发生晚点的总次数。  展示晚点次数最多的Top-10节点列表。 o 基于进化算法的最优免疫节点选择:  设定一组节点(例如10个)为免疫状态(这些节点不会发生晚点,也不会传播晚点)。  在设定免疫节点后,进行晚点扩散模拟,观察网络整体的晚点情况。  利用遗传算法 (Genetic Algorithm) 等进化计算方法,在所有可能的N个免疫节点组合中搜索,找出使得网络晚点影响(例如,总晚点节点数、晚点持续时间等)最小化的最优10个免疫节点组合。  展示算法给出的最优10个免疫节点列表。
410Pythonweb200.00元
当前共5622个项目
×
寻找源码
源码描述
联系方式
提交