Torch

Torch是一个开源的机器学习框架,最初由纽约大学团队开发并以Lua语言实现,因其灵活性和强大的张量计算能力在学术研究中广受欢迎。其核心设计以​​动态计算图​​为特色,支持交互式调试和直观的模型构建方式,尤其适合深度学习领域的快速原型设计和实验迭代。2017年,PyTorch作为Torch的Python版本正式发布,继承了Torch的灵活性与核心理念,同时依托Python丰富的科学生态(如NumPy)和更广泛的开发者社区,迅速成为主流。PyTorch通过​​自动微分(Autograd)​​、​​GPU加速张量运算​​以及​​模块化的神经网络构建接口(torch.nn)​​,为研究人员提供了极致的灵活性和控制力,其动态图机制使得模型调试和修改更为直观便捷。尽管后续版本增加了对生产部署的优化(如TorchScript),但其核心优势始终体现在研究和实验阶段的高效性上。PyTorch现已与TensorFlow并列成为深度学习领域最具影响力的框架之一,被广泛应用于学术研究、工业探索以及各类AI模型的原型开发。
项目包含多个核心功能模块:基础LSTM模型、BayesianLSTM模型和ResNet-LSTM混合模型,每种模型针对不同复杂度的文档格式识别任务提供最佳解决方案。主要功能包括:1)支持对docx文档中商务标部分的文本序列进行建模分析,将文档内容转换为适合深度学习模型的输入格式;2)提供多种损失函数
900Python人工智能
1.越浪量识别主要面向海岸与港航工程、沿海城市防灾、近海风电接岸、科研/高校水工实验等行业,在重点堤段实景越浪监测、汛期预警联动、工程加固前后对比评估、实验水槽数据自动化量化等场景进行应用;从而有效降低人工运维成本。实现低成本长时监测;由“看见越浪”升级为“量化越浪量(q)”,辅助运维与设计复核。 2.实现的方式如下: 采集&标定:双目相机接入/同步;棋盘格内外参标定;环境自检(遮挡/污渍/补光)。 越浪识别(分割):海面/堤体/越浪区域语义分割;叠加掩膜、轮廓、置信度与帧率。 深度/高程融合:由现场 DEM 得到像素高程/距离,对齐到分割结果。 越浪量计算:越浪区域沿视线方向分段加权(透视修正)→ 单帧 q → 分钟/小时累计、峰值与持续时长。 阈值预警与联动:绝对阈值/移动平均/趋势触发。 可视化与报表:多点位总览、堤段热力、事件时间轴;CSV/Excel/PDF 导出。 模型迭代:周期性微调与基线评测;版本化上线与回滚。 运维:设备固件与参数台账、日志审计。
620黑盒测试python1000.00元
1. 行业与业务场景 该竞赛聚焦于人工智能领域的大型语言模型(LLMs)优化,旨在解决如何使 LLMs 的响应更契合用户偏好这一关键问题。在当今数字化时代,AI 驱动的对话系统广泛应用于智能客服、虚拟助手、在线教育等多个行业,然而,由于用户需求的多样性和复杂性,现有的 LLMs 在理解和满足用户个性化偏好方面仍存在不足。 Chatbot Arena 收集的大量用户与 LLMs 交互数据为解决这一问题提供了契机。通过分析这些数据,参赛者能够深入了解用户在不同场景下对 LLMs 响应的喜好倾向,进而开发出更符合用户期望的模型。企业可以利用这些成果优化其智能客服系统,提升客户满意度;政府部门则可应用于智能政务服务,提高服务效率和质量。这不仅有助于推动 AI 技术在实际应用中的发展,还能增强用户对 AI 驱动对话系统的信任和接受度,促进相关行业的智能化转型。 2. 功能模块与用户价值 2.1 模型微调功能 核心功能:采用 QLoRA 技术对 Gemma-2-9b-it 量化 4 位模型进行微调,在比赛数据上优化模型参数。同时,寻找与比赛数据类型和分布一致的额外数据,将模型在除验证数据外的所有数据上进行混合微调。 用户价值:通过针对性的微调,使模型能够更好地学习用户偏好模式,从而在实际应用中生成更符合用户期望的响应。额外数据的引入扩大了模型的学习范围,增强了模型的泛化能力,提高了其在不同场景下满足用户需求的准确性。 2.2 关键参数调整功能 核心功能:对 Gemma-2-9b-it 模型的关键参数进行调整,包括选择 “q_proj”“k_proj”“v_proj”“o_proj”“gate_proj” 这五个类型的层进行微调;将训练长度调整为 3072,减少对原始数据的截断;将冻结层数调整为 0,使模型能够充分学习任务相关信息;提升 LoRA_R 到 64,并同时调整对应 LoRA_Alpha 和 Learning_Rate。 用户价值:精准的参数调整使模型结构更适应预测用户偏好的任务,优化后的训练长度和冻结层数设置有助于模型更好地捕捉数据特征,提高预测的准确性。调整 LoRA 相关参数则进一步优化了模型的学习效果,使模型在处理用户偏好预测时更加高效和准确,为用户提供更优质的服务体验。 2.3 推理优化功能 核心功能:在推理阶段使用测试时增强(TTA)技术,交换 Res_A 和 Res_B 让模型进行推理,然后平均集成结果作为模型的最终输出。 用户价值:TTA 技术通过多次推理并集成结果,降低了模型预测的不确定性,提高了预测的稳定性和可靠性。这意味着在实际应用中,模型能够更稳定地输出符合用户偏好的结果,增强了用户对 AI 对话系统的信任,提升了用户体验。 3. 技术选型与架构亮点 3.1 技术选型 模型选择:选用 Gemma-2-9b-it 模型作为基础模型,该模型在参数规模和性能上具有一定优势,为后续的微调提供了良好的基础。 微调技术:采用 QLoRA 微调技术,该技术通过 4 位量化压缩预训练模型,冻结 LM 参数,并添加少量可训练的低秩适配器,在大幅减少内存需求的同时,几乎不影响推理效果,使得模型在有限资源下也能进行高效微调。 数据利用:积极寻找额外数据,并将其与比赛数据结合进行混合微调,扩大了模型的训练数据范围,增强了模型的适应性和泛化能力。 3.2 架构亮点 精细的层选择微调:深入研究模型初始结构,选择特定的五个类型的层进行微调,这种精细化的操作能够更有针对性地优化模型在用户偏好预测任务上的性能,避免对无关层的无效调整,提高训练效率和效果。 优化训练设置:调整训练长度和冻结层数,充分考虑了模型对原始数据的学习需求以及任务的适应性,确保模型能够充分利用数据信息,提升预测准确性。同时,合理调整 LoRA 相关参数,进一步优化模型的学习过程,使模型在训练过程中能够更好地收敛。 推理增强策略:在推理阶段运用 TTA 技术,通过交换输入进行多次推理并平均结果,有效降低了模型预测的随机性,提高了推理结果的稳定性和可信度,为用户提供更可靠的预测结果。
1400Pythonkaggle1000.00元
支持多种情绪风格的对话生成,涵盖数据自动生成、格式转换、模型微调、推理部署和 Web 交互等完整流程。适用于情感陪伴、虚拟助手等场景。 - 设计多情绪风格对话模板体系,构建高质量训练数据集,增强模型情感理解与表达能力 - 完成数据格式标准化处理,确保与LLaMA Factory框架的完美兼容,支持灵活的单轮/多轮对话训练 - 严格按照LLaMA Factory官方最佳实践完成模型微调,建立规范化的训练流程 - 通过vLLM本地部署优化推理性能,结合Gradio开发直观的Web界面,支持实时参数调优 # 进入 EmotionalDialogueModel 目录 cd EmotionalDialogueModel # 生成多风格对话数据 python generate_data.py # 转换为 LlamaFactory 格式 python data_convert.py # 部署 vLLM 并启动 Web UI python webui.py
1710Pythonpython1000.00元
本作品针对林间松果在复杂自然环境下存在的遮挡、光照变化剧烈以及小目标检测难等问题,提出了一套基于YOLO系列网络融合Transformer机制的高效松果检测方案。该系统采用EfficientViT作为特征提取网络,充分利用其高效性与全局感知能力,并设计了创新的多尺度特征融合网络与自适应加权损失函数,显著提升了检测的准确性与鲁棒性。为实现边缘设备上的高效部署,进一步结合了知识蒸馏方法对模型进行压缩优化,确保在Jetson Nano等低功耗嵌入式平台上也能实时运行。 项目完整开源代码包中包含了多项论文中的核心创新点,包括轻量级EfficientViT特征提取网络、创新的多尺度特征融合模块、改进的自适应损失函数设计以及高效的知识蒸馏策略示例,方便研究者和工程师在智能林业、无人果园等场景中快速复现与应用,推动林业自动化和智能化水平的提升。
720Torch网络工具包1000.00元
项目介绍:联邦学习环境中的后门攻击与防御研究平台 核心目标 本项目构建了一个前沿的联邦学习安全研究平台,专注于模拟后门攻击在分布式机器学习系统中的植入、传播与防御过程。基于OxfordPets图像数据集和VGG16模型架构,系统实现了可配置化的恶意攻击场景,为联邦学习安全机制提供实证研究基础。 关键技术特性 1. 攻击场景高度可控 • 恶意客户端指定:通过backdoor_paticipation_map参数精确选择发起攻击的客户端(如客户端0-2) • 攻击强度调节:支持70%的高比例数据污染(backdoorRatio=0.7) • 多样化触发器:内置像素级触发器(如中心位置[220,220]的红色块攻击) • 目标定向攻击:强制模型将特定样本错误分类至目标类别(backdoorClass=0) 2. 联邦学习全流程模拟 • 多客户端协同训练(默认5客户端) • 支持IID/非IID数据划分(Dirichlet分布) • 集成FedProx防御算法(mu=0.01动态调整) • 10轮联邦训练迭代(n_rounds=10) 3. 双轨评估体系 评估维度 指标说明 技术实现 模型泛化能力 37分类任务准确率 标准测试集验证 系统鲁棒性 后门触发成功率 专用后门测试集监测 攻击演化分析 训练过程动态追踪 Matplotlib可视化性能曲线 科研价值 • 攻击影响量化:揭示后门攻击在不同数据分布(IID/non-IID)下的传播规律 • 防御机制验证:评估FedProx等算法对恶意模型的抑制效果 • 动态脆弱性分析:通过参与率映射(participation_map)探索客户端动态加入/退出的风险 应用场景 • 安全研究:评估联邦学习框架对抗投毒攻击的鲁棒性 • 防御方案设计:验证模型聚合策略、客户端筛选机制的有效性 • 标准测试平台:提供可复现的攻击向量(触发位置、颜色、目标类别组合) 方法论创新 1. 模块化攻击注入:通过定制BackdoorSet实现训练数据无损污染 2. 双重评估机制:同步跟踪主任务准确率和后门攻击成功率 3. 动态参数调整:在训练中期倍增正则化强度(mu值)以增强防御 该平台通过标准化的实验流程和可视化结果分析,为研究后门攻击在参数服务器、客户端本地更新、模型聚合等关键环节的影响提供完整实证支持,推动联邦学习安全领域的方法创新。
1120Python信息安全
针对机器人策略在真实环境里学习成本高、难以覆盖复杂场景以及仿真与现实差距大这些挑战,提出一种基于“数字表亲”场景,结合大语言模型的机器人操作数据生成框架,用于合成高质量的机器人操作数据。首先,依靠ACDC框架自动生成和真实场景几何布局以及语义相似的多样化数字表亲仿真环境;接着,把任务指令、仿真状态输入到LLM中,生成一个层次化的技能树;而后,将任务树编译成一组预先定义好的运动原语,这些运动原语是基于OMPL运动规划与GraspNet抓取姿态估计来实现的;最后,在仿真环境中执行运动原语生成的轨迹数据,并检测任务是否成功。本文在两种条件下开展研究:一是仅使用真实数据,二是混合真实与生成的仿真数据,均采用ACT算法进行训练,并在原始真实场景以及物体空间分布具有不同程度变化的测试环境中评估其性能。实验结果表明,混合数据训练策略显著提升了模型在未见目标和变化环境下的泛化能力。本文方法降低了真实数据采集成本,提升了仿真数据的实用价值,为大规模、跨场景的机器人策略学习提供了高效可行的新途径。
930Torchpython
本程序致力于提供一个强大且实用的人群计数工具,其核心目标在于精准地检测图像或视频流中出现的人体目标,并高效地统计其数量。为实现这一任务,程序采用了当前深度学习领域的主流框架——PyTorch,构建并部署了一个经过优化的YOLOv3 (You Only Look Once, version 3) 目标检测模型。 YOLOv3 被选为本程序的核心算法,主要得益于其卓越的性能平衡。作为一种单阶段(one-stage)检测器,YOLOv3 以其显著的速度优势闻名,能够在保持较高检测精度的同时,满足实时处理的需求。其核心原理是将目标检测视为一个回归问题,通过单次前向传播即可预测图像中所有目标的边界框位置及所属类别概率。本程序特别利用了 YOLOv3 的 Darknet-53 骨干网络提取深度特征,并结合其多尺度预测机制(在三个不同尺度的特征图上进行检测),使其能够有效应对人群计数中常见的尺度变化大(如近处个体大、远处个体小)和密集遮挡等挑战,精准捕捉不同大小的人体目标。
2050Python源文件源码
车牌识别源文件源码
本代码基于YOLO(You Only Look Once)算法实现了高效的车牌识别系统。YOLO作为单阶段目标检测模型,通过卷积神经网络同时预测边界框和类别概率,显著提升了检测速度。系统首先利用YOLO模型定位图像中的车牌区域,随后通过OCR技术识别车牌字符。实验表明,该方案在复杂场景下仍能保持较高的准确率和实时性,平均识别精度达90%以上,单帧处理时间低于50ms。该方法克服了传统车牌识别算法受光照、角度影响的缺陷,为智能交通、车辆管理等应用提供了可靠的技术支持。
1030Torch机器学习/深度学习
该模型为原DeepSeek-R1-Distill-Qwen-1.5B蒸馏模型转换后的ONNX模型,该模型支持OP14及OP14以上ONNX框架进行部署,可用于适配到不同端侧硬件平台例如:Qualcomm,Atlas,CNStream等,该模型,最大生成长度被设置为32,768个令牌。对于需要采样的基准测试,使用0.6的温度值、0.95的top-p值,并且每条查询生成64个响应来估计pass@1,如需要模型源码文件及部署推理代码请联系我!
1550Apache人工智能1000.00元
本模型用于交通警示标识识别,识别准确率高达95%以上,如有需要请访问:https://modelscope.cn/models/KeanuX/ts_detector/files,内容只包含模型文件若需要进行模型ONNX转换或模型量化或部署请提需求,我会帮你完成。该模型不可二次售出如有发现将依据法律追责
1011Apache人工智能350.00元
将MediaPipe-Hand模型进行INT8量化并转换为ONNX格式,支持CPU快速部署推理,请访问:https://modelscope.cn/models/KeanuX/Mediapipe-handlandmarks-INT8-ONNX/files查看详细信息,支持CPU快速部署推理帧率保持在20fps以上。
800Torch人工智能550.00元
SIM-SHP2-SMI源文件源码
SHP2小分子抑制剂筛选 使用DeepPurpose进行药物小分子和靶标2shp蛋白的亲和力预测并筛选抑制剂,该项目简化了DeeppPurpose的DPI模块的预测算法,并预下载其对应的预测模型,使用本地预测的方式实现功能 主要技术: 1. 数据清洗 2. 特征设计 3. 模型训练与预测
1030Python项目构建1.00元
项目简介: Pytorch_Bert_CasRel_RE 项目主要聚焦于关系抽取(Relation Extraction,RE)任务,借助 PyTorch 框架和 BERT 预训练模型,运用 CasRel(Cascaded Binary Tagging Framework for Relational Triple Extraction)方法实现三元组抽取。 技术类型: 此项目属于自然语言处理(NLP)领域的关系抽取项目。它结合了深度学习框架 PyTorch、预训练语言模型 BERT 以及 CasRel 这种创新的关系抽取方法。 结合预训练模型:采用 BERT 预训练模型,能够捕捉文本中的语义信息,使模型对文本语义有更深刻的理解,进而提升关系抽取的准确性。 CasRel 方法:CasRel 采用级联的二元标记框架,可有效处理复杂的关系抽取任务,尤其在处理多个实体和关系的三元组抽取时表现出色。 端到端抽取:实现了端到端的三元组抽取,无需额外的实体识别步骤,简化了抽取流程。 性能表现:在公开的关系抽取数据集上,相较于传统的关系抽取方法,该项目能取得更高的准确率和召回率。 项目中遇到的问题: 数据标注问题:高质量的标注数据是关系抽取任务的基础,然而标注过程不仅耗时耗力,还容易出现标注不一致的情况。 模型训练问题:BERT 模型参数众多,训练时需要大量的计算资源和较长的训练时间。同时,还需解决梯度消失、梯度爆炸等问题。 复杂语义处理:自然语言存在语义歧义、指代不明等问题,这给关系抽取带来了挑战,需要模型具备更强的语义理解能力。 快速上手项目: 安装 PyTorch 及其依赖库。可以依据自己的 CUDA 版本,在 PyTorch 官方网站选择合适的安装命令。 安装其他必要的库,像 transformers 等,可使用 pip install transformers 进行安装。 收集并标注关系抽取所需的数据,数据格式要与项目代码相匹配。 将数据集划分为训练集、验证集和测试集。 配置训练参数,如学习率、批次大小、训练轮数等。 运行训练脚本,开始训练模型。 使用测试集对训练好的模型进行评估,计算准确率、召回率和 F1 值等指标。 加载训练好的模型,对新的文本进行关系抽取。
2080Python其他(Others)200.00元
本研究提出了一种名为Around2center的自监督去噪框架,旨在仅使用单张噪声图像进行去噪。 1.以集成到专业图像处理软件中,如Adobe Photoshop、GIMP等,提供更高效的去噪功能。 2.在安全监控系统中,去噪算法可以改善监控图像的质量,提高监控系统的可靠性和有效性。 3.在智能手机和平板电脑上,去噪算法可以集成到相机应用中,提升用户拍摄照片的质量。
750Pythonpython1000.00元
本模型聚焦航空运输服务质量优化,针对现有用户评价分析中存在的多语言评价稀疏性(如中文/英文评价占比7:3)、长尾语义噪声(非结构化文本占比>85%)及动态情感漂移(如延误场景下情绪极性突变)等核心痛点,构建了基于多源异构数据融合的智能分析体系。相较于传统基于词频统计(TF-IDF)与静态情感词典的方案,本模型首创跨语言联合表征框架——采用BERT-Multilingual预训练模型实现中/英/日语评价的向量对齐(语义相似度↑32%),结合时域注意力LSTM捕获评价时序关联(如航班延误前后服务评分衰减模式),并引入对抗生成网络(GAN)合成长尾低频事件(如行李损坏、特殊餐食投诉)的训练数据,使F1-score提升至89.7%(较基线模型+41%)。技术实现上,模型依托Scrapy-Redis分布式爬虫集群日均抓取全球12家航司官网与社交媒体评价数据(>5万条/天,抗反爬动态渲染破解率>98%),经命名实体识别(NER)与事件图谱构建后,通过Docker-Kubernetes弹性计算集群实时输出服务质量热力图、旅客情感趋势曲线及突发问题预警指数(延误投诉响应延迟<15分钟),已成功应用于某国际航司的客舱服务迭代,推动差评率下降27%并助力客户满意度(CSAT)提升19个百分点,实现从数据感知到运营决策的闭环赋能。
1190Python虚拟现实/增强现实
1.面向气象研究者,帮其完成不同区域的气象历史数据的统计,建立数据库。 2.本方案建立数据库,提供增删改查功能,对不同对象提供不同的界面入口,开放不同权限。 3.对于预测值能狗提供相应统计数据。 4.采用回归算法进行预测。
1430Python系统监控1000.00元
开发了一种深度学习模型,用于识别和分类人类的日常活动。同时,我们引入了一种新颖的音频隐私保护技术,该技术专门设计用于从高分辨率音频中提取非语音信息,并结合了惯性传感器数据。为了训练和测试我们的模型,我们构建了一个数据集,包含了多名参与者使用定制硬件设备进行的不同日常活动。我们详细阐述了数据的收集和预处理流程,并提出了一种创新的混合注意力机制的人类活动识别(HAR)方法。
1410python人工智能
可见光谱学和近红外漫反射光谱学(Vis-NIR)有助于快速和无破坏性的估算各种土壤特性,建立一种基于这种方法的估计模型有助于节省测量土壤氮元素含量所需的资源。本文中我设计了一种组合卷积神经网络(CNN)和Transformer网络两种模型的联合模型来预测土壤中氮元素含量,称为CNN-Transformer联合模型。它结合了CNN从数据中提取局部和抽象特征的能力,以及Transformer网络学习序列特征的各种依赖性的优势。本文中我通过区间随机蛙跳算法和斯皮尔曼相关系数法对选取特征光谱,然后在不同输入的情况下对比本文设计的联合模型、偏最小二乘模型、单独CNN和单独Transformer的预测精度并对它们的泛化能力进行测试。最后使用贝叶斯自动优化超参数模型对效果较差的联合模型的超参数进行调优来提高其预测能力。
2080深度学习人工智能200.00元
当前共19个项目more
×
寻找源码
源码描述
联系方式
提交