Python

Python是一种广泛使用的解释型、高级和通用的编程语言,[1]由荷兰数学和计算机科学研究学会的Guido van Rossum创造,第一版发布于1991年,它是ABC语言的后继者,也可以视之为一种使用传统中缀表达式的LISP方言。[2]Python提供了高效的高级数据结构,还能简单有效地面向对象编程。Python语法和动态类型,以及解释型语言的本质,使它成为多数平台上写脚本和快速开发应用的编程语言,随着版本的不断更新和语言新功能的添加,逐渐被用于独立的、大型项目的开发。Python支持多种编程范型,包括函数式、指令式、结构化、面向对象和反射式编程。Python解释器易于扩展,可以使用C或C++(或者其他可以通过C调用的语言)扩展新的功能和数据类型。Python也可用于可定制化软件中的扩展程序语言。Python
Python语言框架
Python是一种广泛使用的解释型、高级和通用的编程语言,[1]由荷兰数学和计算机科学研究学会的Guido van Rossum创造,第一版发布于1991年,它是ABC语言的后继者,也可以视之为一种使用传统中缀表达式的LISP方言。[2]Python提供了高效的高级数据结构,还能简单有效地面向对象编程。Python语法和动态类型,以及解释型语言的本质,使它成为多数平台上写脚本和快速开发应用的编程语言,随着版本的不断更新和语言新功能的添加,逐渐被用于独立的、大型项目的开发。Python支持多种编程范型,包括函数式、指令式、结构化、面向对象和反射式编程。Python解释器易于扩展,可以使用C或C++(或者其他可以通过C调用的语言)扩展新的功能和数据类型。Python也可用于可定制化软件中的扩展程序语言。Python
开发组织  吉多·范罗苏姆
网页爬虫功能源文件源码
一个网页爬虫程序,涉及到JS逆向,HTML解析,MongoDB等,使用的是Scrapy框架 爬虫类的项目远不止网络请求这么简单,selenium浏览器爬取,分布式爬取,验证码过检,持久化登录等,都可扩展 拿到数据后,还可使用pandas、numpy等框架进行数据处理与分析 如果有必要的话,还能使用Pyqt5打包为GUI程序,更方便用户一键调用
190Python网页爬虫
数据库管理工具源文件源码
本系统基于 Python Flask 框架,结合前端 Layui 组件库,快速构建了一款轻量级、易部署的数据库管理工具。系统支持数据库表数据的可视化查询、条件筛选及分页展示,同时提供表字段的在线编辑功能,便于快速修改和维护关键数据。适用于内网隔离、无法使用常规数据库管理工具(如 Navicat、DBeaver 等)的受限环境,特别适合运维人员或开发人员在无外网权限的场景下进行日常数据核查、配置调整与问题排查。工具部署简单,依赖清晰,界面简洁直观,无需复杂操作即可上手,有效提升内网环境下数据库操作的灵活性与效率,是一款实用的轻量级数据管理解决方案。
350Python网站客户端
1、本系统面向如下需求:1)股票实时与历史数据获取 2)股票数据分析和选股 3)股票交易信号生成 4)股票实时监测与交易触发 2、系统特点:数据获取多数据源(Akshare Tushare Baostock 通达信),也可根据客户资源实现指定数据源获取;实时数据获取速度快;可根据客户需求灵活定制分析选股策略;其他灵活需求配合; 3、系统采用Python编写 4、如果需求方在广州或者附近,可根据需要线下讨论需求。
370Python金融/财务/证券系统1000.00元
【功能】 自动抓取豆瓣电影Top250的片名、导演,保存为CSV文件。 【技术栈】 - requests:高速抓取 - re 正则:解析HTML - csv 模块:直接生成Excel可打开文件 【运行】 pip install -r requirements.txt python main.py → 同目录生成 douban_top250.csv 【交付】 源码+依赖清单+样例数据,开箱即用。
821Python爬虫,数据收集分析
模条检测小程序源文件源码
前端 (Frontend): 微信小程序 开发语言:TypeScript。为JavaScript提供了静态类型检查,增强了代码的可读性、健壮性和可维护性,特别适合构建有一定复杂度的应用。 核心框架:使用微信小程序原生框架,包含以下核心技术: WXML (WeiXin Markup Language):负责构建页面的结构和布局。 WXSS (WeiXin Style Sheets):负责定义页面的样式,语法与CSS高度兼容。 小程序API:深度使用了微信提供的原生API,以实现丰富的系统功能,例如: wx.login / open-type="getPhoneNumber":构建了符合最新微信规范的安全登录和手机号授权体系。 组件:实现了应用内的自定义相机功能。 wx.uploadFile / wx.request:处理与后端服务器的所有数据交互。 wx.downloadFile / wx.saveFile:实现了报告的下载功能。 wx.previewImage:提供了高性能、带手势缩放的原生图片预览体验。 组件:用于小程序向关联公众号引流。 onShareAppMessage / onShareTimeline:实现了微信好友和朋友圈的分享功能。 后端 (Backend): Django 开发框架:Django (Python)。一个功能强大、“大而全”的Web框架,以其高效的开发效率、完善的文档和强大的安全性著称。 核心组件: Django Models: 定义了数据模型,通过ORM(对象关系映射)与数据库交互,无需编写原生SQL。 Django Views: 编写核心的业务逻辑,处理前端发来的API请求。 Django URLs: 设计了RESTful风格的API路由,实现了清晰的URL结构。 Django Admin: 自动生成了一个功能强大的后台管理界面,用于快速查看和管理用户提交的数据。 API 认证:Django Rest Framework (DRF) + Simple JWT。搭建了一套基于 JSON Web Token (JWT) 的现代化认证体系。用户通过手机号登录后,后端会签发一个有时效性的access_token,前端在后续所有需要认证的请求中携带此Token,保证了API的无状态和高安全性。 图像处理:Pillow (处理图片基础操作) + pdf2image (配合系统工具poppler-utils,将PDF报告动态转换为图片序列)。 服务器与运维 (Server & DevOps) 服务器:阿里云 ECS (Ubuntu 系统)。提供了一个稳定、可扩展的Linux服务器环境。 Web 服务器:Apache。作为前端反向代理服务器,负责处理所有来自公网的HTTPS请求,管理SSL证书,并将动态API请求安全地转发给后端的Django应用。 内网穿透/反向代理:frp。在开发阶段,用于将阿里云服务器的公网地址安全地映射到本地的开发服务器,极大地便利了真机调试。 数据库:SQLite (开发阶段)。Django默认的轻量级数据库,开箱即用,方便快速开发和原型验证。(未来可轻松迁移至 MySQL 或 PostgreSQL)。 安全配置: HTTPS: 在Apache上配置了SSL证书,实现了全站HTTPS加密通信。 CSRF 防护: 通过配置 CSRF_TRUSTED_ORIGINS,在保证API可用的同时,也正确处理了Django的跨站请求伪造防护机制。 防火墙 (ufw): 配置了Ubuntu系统的防火墙,按需开放必要的服务端口。
200Python微信小程序10000.00元
微博信息采集源文件源码
本方案用 Python requests 采集微博评论,先通过请求头与 Cookie 模拟浏览器。访问微博评论 API,传入微博 ID、页码等参数,获取数据后提取用户 ID、名称、地址及评论内容等关键信息。采集过程加入随机延时防封禁,多页数据自动拼接。最后用 pandas 将数据存入 Excel,支持追加扩充表格。使用前需替换 Cookie,注意控制爬取频率,遵守平台规则,确保数据采集合法合规,满足后续数据分析需求。
230Python PC网站
使用 SimpleImputer 处理缺失值 使用 StandardScaler 或 MinMaxScaler 对数值特征进行标准化/归一化 使用 OneHotEncoder 或 OrdinalEncoder 对分类变量进行编码 应用 SelectKBest, RFECV (递归特征消除与交叉验证) 或基于模型的特征重要性(如来自 RandomForest 的 feature_importances_)来选择最相关的特征,以降低过拟合风险并提高模型可解释性 使用 Pipeline 对象将预处理步骤和估计器(模型)链接成一个单一对象。这避免了数据泄露,并简化了代码。
250Pythonsklean8000.00元
产品api无法实现对端口进程的批量整理、SAP与非SAP的自动判断、以及端口对应Web url的自动批量整理 通过本程序集,可使用万相主机安全api+蔷薇微隔离api,批量识别并整理可视化的,暴露至某个范围的机器端口、端口对应进程、进程对应weburl(如有),节省了暴露面排查时的手工操作。 1、实现某能源企业ERP项目梳理端口暴露面的需求; 2、使用python的requests包、openpyxl包等实现; 3、调用产品api实现非自带功能,实现多线程发包节省时间、增量判断节省人工成本; 4、部署至服务器定期执行。
170Python网络安全1000.00元
爬虫脚本源文件源码
行业:智慧农业、植物保护、农业信息化 业务场景:农业知识库构建、病虫害识别模型训练、数据分析和决策支持 功能模块:代理管理模块、请求调度模块(并发)、数据解析与存储模块、状态管理模块(断点续爬、增量更新)、定时任务模块 实现功能:自动爬取植小保小程序中的问答数据、病虫害识别结果、专家回复等。将爬取的数据结构化存储到数据库和本地文件中。支持增量爬取,避免重复爬取已处理的内容。支持高并发、代理轮换,提升爬取效率和稳定性。提供日志记录和错误重试机制,保证爬虫的鲁棒性。 技术选型:语言:Python 3,网络请求:httpx、requests,数据库:PostgreSQL,并发处理:threading + ThreadPoolExecutor,定时任务:schedule,JSON处理:json,日志管理:logging,代理服务:自定义代理池服务(通过HTTP接口获取代理)
340Python网络爬虫
1.本项目简介:爬取飞瓜抖音网站,模拟浏览器操作,根据提供的主持人名单进行精确搜索、数据爬取,并将获取到的数据汇总,输出为Excel文件。 2、对飞瓜抖音网站进行搜索:按抖音号;飞瓜网站有反爬,不可以用selenium自动化登录,selenium打开后,配合手机扫描继续爬取。 3、爬取内容:名单中每个主持人的抖音名,抖音号,30天直播场次,30天直播销量,30天直播销售额,30天场均音浪(用于计算30天音浪增量)
630Python爬虫
项目为爬取网易音乐、爱奇艺、酷我、QQ音乐、虾米音乐、音悦台中的新歌数据,并将数据整合,存储并输出为Excel文件。 1、其中内容包括:新歌数据、歌曲评论数据、MV数据等 2、使用的爬虫技术包括: 后端爬虫:如requests库,根据发送HTTP请求,并解析返回的HTML内容。 前端爬虫:如使用Selenium工具,模拟浏览器操作,如表单提交等,获取网页数据。 3、获取数据之后,将数据整理并输出为Excel文件,更易使用。
540Python爬虫
公司致力于各项软件开发项目,有多次大型政府项目系统开发经验,在软件开发项目上有丰富经验,研发及维护团队均是著名开发公司人员,致力于软件开发质量和服务的提升,软件开发是一个充满创造性和挑战性的领域,它将逻辑思维与解决问题能力相结合,旨在打造改善人们生活和工作的数字产品。它不仅仅关乎技术,更关乎团队协作、沟通和对用户需求的深刻理解。希望这篇介绍能为您打开一扇了解这个广阔世界的大门!
370C#Android10000.00元
1. 基于WEB开发相关知识和工具,拟设计与实现一种晚点扩散仿真与分析系统,生成一个网页,为高铁网络晚点的问题的研究提供技术支撑。 2. 本项目采用前后端分离的B/S架构,主要使用的开发工具和技术栈如下: • 后端: o 编程语言:Python 3.8.20 o Web框架:Flask (轻量级Web服务框架) o 数据库:MySQL 5.7+ (关系型数据库,存储基础数据及分析结果) o 数据库连接库:Pymysql o 网络分析库:NetworkX (用于图的创建、操作、复杂网络指标计算等) o 核心算法库:random, collections.defaultdict (Python内置) o 其他库:requests (用于HTTP请求) • 前端: o 核心技术:HTML5, CSS3, JavaScript (ES6+) o 可视化库:ECharts (用于网络拓扑图、统计图表绘制和动态展示) • 开发环境与工具: o 操作系统:Windows o Python环境管理:Conda o IDE/编辑器:PyCharm • 数据存储: o 结构化数据:MySQL数据库 o 中间数据/缓存:JSON 文件 (例如,预处理后的网络拓扑数据、图表数据) 3. 系统主要包含以下三个核心功能模块: 1. 高铁网络结构分析模块: o 从数据库中读取高铁站点和线路数据,构建高铁网络模型(节点代表站点,边代表线路)。 o 计算网络的拓扑结构指标,包括:度分布、聚类系数、平均路径长度等。 o 对网络进行社团结构划分。 o 可视化展示:高铁网络拓扑结构图(节点可交互)、各类指标的统计图(如度分布直方图)、社团划分结果(在拓扑图上以不同颜色区分)。 2. 高铁网络晚点扩散模拟与分析模块: o 在已构建的高铁网络结构上,实现晚点扩散的仿真模拟。 o 支持采用SIS(易感-感染-易感)和SIR(易感-感染-移除/恢复)两种经典的传染病模型对晚点扩散进行建模。 o 用户可选择晚点源头节点,并可自定义参数。 o 动态展示晚点在网络中的扩散过程,标记出每一时间步的晚点节点和扩散路径。 o 统计并可视化展示每一时间步网络中晚点节点总数和未晚点节点总数的变化曲线。 o 用户可切换SIS/SIR模型进行对比分析。 3. 高铁网络关键节点识别模块: o 基于中心性的节点评估:  计算节点的度中心性 (Degree Centrality)。  计算节点的介数中心性 (Betweenness Centrality)。  计算节点的接近中心性 (Closeness Centrality)。  可视化展示各中心性指标的统计图或Top-N节点列表。 o 基于模拟统计的关键节点识别:  多次重复晚点扩散模拟过程(可设定不同源头或随机因素)。  统计在多次模拟中,各个节点发生晚点的总次数。  展示晚点次数最多的Top-10节点列表。 o 基于进化算法的最优免疫节点选择:  设定一组节点(例如10个)为免疫状态(这些节点不会发生晚点,也不会传播晚点)。  在设定免疫节点后,进行晚点扩散模拟,观察网络整体的晚点情况。  利用遗传算法 (Genetic Algorithm) 等进化计算方法,在所有可能的N个免疫节点组合中搜索,找出使得网络晚点影响(例如,总晚点节点数、晚点持续时间等)最小化的最优10个免疫节点组合。  展示算法给出的最优10个免疫节点列表。
410Pythonweb200.00元
PDF文件合并源文件源码
极简操作:无需复杂的PDF软件,通过命令行即可快速调用。 保持原貌:在合并过程中,我会尽力保持原始文件的页面布局、文字、图片等所有内容完好无损。 智能排序:支持按文件名顺序、通过读取顺序的文件将其合并为一个PDF文件,确保页面顺序完全符合您的预期。 自由开源:基于成熟的Python库构建,安全透明,您可以放心使用。 使用场景: · 合并多个PDF文件或论文片段。 · 整合多次扫描的合同或证件。 · 将每周的报告合并为月度或年度总报告。 · 归档和整理网页上下载的零散PDF资料。
510Python数据处理1.00元
深入研究直播通信协议,使用python框架构建高性能TCP客户端,稳定连接弹幕服务器,实现了礼物、评论等消息的实时解码、过滤与分发。增加绿幕播放视频 功能、键盘按键控制等功能,丰富了直播内容和玩法。消息通过队列进行流量削峰,确保后端游戏服务在高并发场景下的稳定性;基于Spigot/Paper服务端进行Java插件开发,采用事件驱动架构,将弹幕消息与游戏内事件动态绑定,创造了高度可互动的直播玩法
550Python性能优化
Python爬虫接单 爬文字爬图片 爬评论 爬评价 分析 可视化 都可以,只要是公开的数据都可以爬取 本人热情好客,随时有空,有耐心,有需求就来问我,不买也可以问。 全天在线欢迎打扰 质优价廉,做到您满意为止,有完整售后。 Python爬虫接单 爬文字爬图片 爬评论 爬评价 分析 可视化 都可以,只要是公开的数据都可以爬取 本人热情好客,随时有空,有耐心,有需求就来问我,不买也可以问。 全天在线欢迎打扰 质优价廉,做到您满意为止,有完整售后。
390Python数据库连接池
LOL战绩查看器源文件源码
本工具为《英雄联盟》玩家提供针对性辅助支持,核心解决 “队友战绩屏蔽” 场景下的信息获取需求,可精准查询屏蔽自身战绩的队友近期对战记录与详细战绩数据,助力玩家更全面了解团队战力构成,模块架构清晰且各司其职,具体说明如下: 一、核心功能定位 聚焦玩家对局信息获取痛点,支持精准定位 “屏蔽自身战绩的队友”,并同步提取该类队友的近期战绩数据(如胜率,KDA,伤害 ,治疗量等核心指标)与完整对局记录(对局时间、对局模式、队友 / 对手阵容、胜负结果等关键信息), 二、模块架构设计 1. 主逻辑模块(核心控制) 作为工具的 “大脑”,承担整体流程调度与功能协同职责: 接收用户操作指令,触发对应业务流程; 协调各模块联动,例如向 API 模块发送数据请求指令、接收 API 返回数据后分发至数据筛选模块,最终将处理结果推送至窗口模块展示; 维护工具运行状态,处理异常场景(如 API 请求失败、数据解析错误),保障工具稳定运行。 2. 窗口模块(用户交互) 负责工具的可视化呈现与用户操作交互: 提供清晰的功能入口,支持用户快速发起操作; 实时结果,以列表的形式呈现队友战绩(如近期对局记录、所用英雄等); 支持界面个性化设置(如窗口大小调整、数据展示字段自定义)。 3. API 模块(数据获取) 承担工具与外部数据源的对接职责,是战绩信息的 “获取入口”: 基于《英雄联盟》相关公开数据接口规范,构建稳定的数据请求链路,定向获取目标队友的基础信息(如游戏 ID ); 发起战绩数据请求,包括队友近期对局记录、单场详细数据等,并对返回的原始数据进行初步校验与格式转换(将 JSON 格式数据转为结构化数据); 4. 数据筛选模块(信息处理) 对 API 模块获取的原始数据进行 “提纯”,确保展示给用户的信息精准、有用: 核心筛选逻辑:基于 “屏蔽自身战绩” 的标识规则,从对局队友列表中识别目标对象,排除非玩家战绩数据; 数据清洗与整合:剔除无效数据(如对局ID,英雄代码等),整合关键指标(如计算近期平均 KDA、胜率,标记 MVP 场次); 数据分类归档:将处理后的战绩按 “对局时间”“对局模式” 等维度分类,方便用户快速定位特定记录(如查看队友近 3 天排位赛战绩)。
1440Python游戏
1、本工具面向运维人员,实现批量查询服务器设备的维保信息并保存至表格中,通过自动运行查询的方式节省人为查询的时间和错误。 2、该工具可以根据不同服务商的提供的查询接口进行拓展,实现不同厂商的维保信息查询。 3、该工具执行需要注意要查询的序列号表格信息准备好,并按实际文件路径修改程序信息。 【注意】工具只提交了基本代码,运行环境和数据格式不免费提供,可咨询或购买服务来实现完整功能,有程序基础的看代码可以理解实现打击执行
1230Python网络爬虫30.00元
这个项目是一个基于Python的异步编程网络通信工具。它主要功能包括与WebSocket服务器的连接与通信、HTTP API请求的发送以及数据的处理和传输。项目利用了asyncio和aiohttp等库来实现高效的I/O操作和异步任务管理,确保在处理多个请求时不会阻塞程序的执行。 此外,项目集成了完善的日志记录机制,使用Python的logging模块,结合TimedRotatingFileHandler,实现了日志的自动分割和归档。这有助于监控系统运行状态和调试问题。 项目还设计了错误处理和重试机制,以应对网络不稳定或服务器暂时不可用的情况。对于并发任务的管理,项目采用了线程锁保护关键资源,以保证数据一致性和安全性。此外,通过利用线程池或进程池,项目进一步优化了性能,特别是在处理大量I/O操作或需要并行计算的场景下。
1920python并发/并行处理框架1000.00元
淘宝信息爬取源文件源码
运用senlenium与数据库技术将根据淘宝搜索框搜索获取所需要的店铺信息,当然验证码滑块需要自己手动滑动,由于时间原因和一些考虑,认为验证码只需要几秒自己划一下就行,所以并没有写绕过验证码的程序。如果有所需要,将所获取的数据进行分析形成可视图形也是可以做到的。这个作品还有一些不足之处,但基本使用应该是没有问题的。
2000python网页(Webview)
当前共115个项目
×
寻找源码
源码描述
联系方式
提交