自然语言处理

实时语音识别 (Real-time Speech Recognition): 能够捕捉麦克风输入,并将用户的语音实时、准确地转换为文本。 自然语言理解 (Natural Language Understanding - NLU): 分析转换后的文本,理解用户的意图和关键信息(例如指令、询问的对象、参数等)。 对话管理 (Dialogue Management): 在多轮交互中维护对话状态和上下文,使对话更加连贯自然。 任务执行与技能调用 (Task Execution & Skill Invocation): 根据理解的用户意图,执行相应的操作,例如: 信息查询: 获取天气预报、时间、百科知识、新闻等。 媒体控制: 播放/暂停音乐、调整音量。 简单助理任务: 设置提醒、创建待办事项。 语音合成 (Text-to-Speech - TTS): 将助手的文本回复通过 edge-tts 转换成清晰自然的语音进行播放。 Web 界面交互 (Web Interface Interaction): 提供一个用户友好的网页界面,可以: 显示语音识别的文本和助手的回复。 允许用户通过文本输入与助手交互。 (可能) 展示图片、链接等多媒体信息。 多模态反馈 (Multimodal Feedback): 结合语音、文本以及可能的视觉元素(在Web界面上)来呈现信息和交互结果。 图像分析(Image Analysis): 可以通过pygame.camera调用摄像头或者截图当前页面,并与llm互动获取想要的信息 剪切板提取(Clipboard Management): 可以通过pypercli获取剪切板中的文本内容并自动判断是否需要进行执行 上下文管理(Context management): 通过EnhancedConversationContext类管理对话记录,支持记住或者遗忘特定信息,根据相似度判断是否清除旧的上下文,能够根据对话历史生成更相关的回复 日志记录(Logging): 使用rich库美化日志输出,并将日志保存到文件中 网页搜索(Search): 使用DuckDuckGo搜索用户指定的内容,并返回搜索结果摘要
730Torch机器学习/深度学习
Ace-Translate开源项目
1.在信息全球化的今天,语言跨越不再成为障碍是每个跨文化交流者的梦想。因此,我们为您隆重推荐【Ace-Translate】——一款突破性的本地离线翻译工具,为您的学习、工作与生活带来前所未有的便利。 2.这款翻译工具的特色是支持多种翻译场景分别有:文本翻译,划词翻译,截图翻译,视频翻译,文件翻译,包,TXT文件、Excel、PPT、PDF、图片和Word,文档图片翻译。 3.在开源项目地址中有上手的教程
1830图像处理人工智能
最早一批的Comfyui插件作者 A100训练过大语言模型,对语言模型数据处理、训练有一定的了解 训练图像模型,在sd模型civitai上有发布有、comfyui插件作者。与达摩院合作开发开源项目 facechain Agent方面:langchain-chatchat贡献者,熟悉langchain、eliza开源项目贡献者
1400图像处理人工智能
rag-best-practices开源项目
1. 项目解决了什么问题? 项目名为:rag-best-practices(大语言模型检索增强生成技术最佳实践),针对“大语言模型数据更新不及时,垂直领域问答多幻觉”的问题给出了改善方案。通过垂直领域知识库检索辅助模型生成内容,减少生成幻觉,将通用大模型在一定程度上专业化;通过更新知识库,使得过往预训练的大模型能够回答实时新闻报道中出现的内容,进一步提高通用大模型的回答能力。 2. 项目采用的技术? - Query Classification:并非所有查询都需要检索增强。 - Sliding Window Chunking:块大小显著影响性能。更大的块提供了更多的上下文,增强了理解,但增加了处理时间。较小的分块提高了检索的召回率,减少了时间,但可能缺乏足够的上下文。使用sliding window技术更加有效,即将文本按照句子进行划分,每个块包含窗口大小个句子。 - Embedding:嵌入模型选择BAAI/big-large-en,并对其在专业数据库中进行微调,提高其检索能力。 - Vector Database:Qdrant支持多种索引类型、十亿规模的向量支持。 - Retrieval:HyDE(pseudoDoc+query)+Hybrid Search(=0.3*BM25+Original embedding)。 - Reranking:monoT5模型参数量小且准确率相对较高,RankLLaMA绝对准确率更高。 - Repacking:reverse方式最好。 - Generator Fine-tuning:混合相关和随机上下文可以增强生成器对无关信息的鲁棒性,同时保证相关信息的有效利用。用一个相关文档和一个随机选择的文档来训练。(待实现) 3. 项目有哪些亮点? 对当前提出的各种RAG方法进行整合,统一实现了论文中提到的技术,方便模块化定制。
1100深度学习人工智能
本案列推向小型企业,利用向量化数据库,ollama本地部署,chatollama提供了友好的交互界面。比较其他储存数据的知识库,本项目可以完全私有化,知识库也不上传到云端。可以将公司内部的数据放在本地主机,保证了数据的安全性,私有性。
1890python人工智能
AI网站开源项目
运用和gpt一样的逻辑设计的,模块化的小功能会多一点,能AI绘图以及声音处理等小组件 能做简单的视频处理,包括但不限于处理帧数以及画面清晰 也可以训练AI模型,可以随意切换语言大模型,内置gpt4o以及3.5以上语言模型,用户可以根据自己的需求进行购买 当然运用他的组件模型也可以在pdf上面可以帮助用户做一些需求
2371服务器测试人工智能
由于之前一直在公司工作,很多项目无法截图,这边写上自己个人技能: 独立开发过CV/NLP/机器学习项目,具备独立解决问题的能力。 精通医疗/通用场景图像分类、检测、信息抽取、OCR及一维信号分类。 自学能力强,能够快速学习、掌握新技术和工具,持续跟踪业内最新技术进展(AIGC、LLM)。 熟悉BERT相关预训练模型的使用及其NLU任务定制等通用NLP技术及LLM大模型的微调。 在天池CBLUE医疗信息大数据比赛中排名第27名,KAGGLE毒性评论打分比赛获得银牌。 熟练使用PYTHON开发,熟悉C、MATLAB。
2170深度学习人工智能
在推理过程中,如果我们希望不增加计算力和空间随着推理长度的增加,可以考虑使用某些特定的算法和数据结构。例如,可以使用动态规划、滑动窗口等技巧来降低算法的时间复杂度和空间复杂度。 以动态规划为例,它是一种通过将复杂问题分解为更小的子问题来解决原问题的方法,并且保存子问题的解以避免重复计算。这样,在处理长序列的推理任务时,动态规划可以帮助我们避免不必要的重复计算,从而减少计算力和空间的消耗。 再比如,当我们在处理文本数据时,可以使用滑动窗口技术来处理长文本。滑动窗口技术允许我们在不增加额外空间的情况下,对文本序列进行分块处理,从而减少了空间复杂度。 除此之外,还有一些模型压缩和优化技术,如模型剪枝、量化、低秩分解等,可以在不牺牲太多性能的情况下,减少模型的体积和计算量,从而使得模型在推理时更加高效。 总之,通过合理地选择算法和数据结构,以及使用模型压缩和优化技术,我们可以在推理过程中不增加计算力和空间随着推理长度的增加。
1670python自然语言,llm ,人工智能
项目简介:基于 Langchain RAG 框架的自定义知识库对话系统 1. 功能模块及用户功能: 对话接口: 用户可以通过文本输入与系统进行自然语言对话。 系统能够理解用户的查询并返回相关信息。 知识库检索: 系统能够从事先构建好的知识库中检索相关内容,以支持对话中的信息提供。 用户反馈: 用户可以通过点击按钮提供对话结果的反馈,包括正确性、流畅性等方面的评价。 2. 我的任务、技术栈与成果: 任务: 搭建自定义知识库对话系统,提供高效、准确的信息查询服务。 技术栈: 使用 Langchain 提供的 RAG 框架作为对话系统的核心。 选择 Qwen-14B-Chat 作为基座模型,具有强大的对话生成能力和对话理解能力。 使用 Streamlit 框架重新设计前端界面,提供用户友好的交互体验。 成果: 成功搭建了一个自定义知识库对话系统,能够通过与用户交互,提供准确、丰富的信息支持。 引入了用户反馈功能,能够持续收集用户的评价数据,用于优化系统性能和调整知识库内容。 3. 难点与解决方案: 难点: 如何有效地组织和索引知识库中的内容,以便快速、准确地进行检索。 解决方案: 使用 RAG 框架将知识库内容进行索引,利用其检索式搜索功能实现快速的信息检索。 通过对知识库内容进行分类和标签化,提高检索的准确性和效率。
7290pythonLLM (大语言模型)
PEER: AI Tutor开源项目
PEER是一个由德国慕尼黑工业大学开发的教育项目,旨在利用LLM(大语言模型)等最先进的NLP(自然语言处理)技术,帮助德国中小学生改进和优化他们的论文。
1530python自然语言处理
整体结构可以分为实体识别和关系/属性抽取两部分,流程可以分为6步,其中2、3和4步会重复执行多次。 第1步:通过Hanlp和规则匹配的方式抽取部分实体 第2步:采用远程监督方法,用种子知识图谱对齐无标数据得到标出了实体的数据 第3步:用上一步得到的标出了实体的数据训练模型 第4步:用上一步训练的实体识别模型抽取无标数据中的实体,并将抽取出的实体加入到种子知识图谱中,增加种子知识图谱的规模,重复2,3,4步多次不断使种子知识图谱规则不断扩大 第5步:通过重复2,3,4步多次后得到扩展了大量实体的知识图谱,用种子知识图谱对齐无标数据,将无标数据中的实体都找出来 第6步:通过上一步得到无标数据中的实体后,使用规则的方法判断实体间的关系和属性
1570深度学习关系抽取
整体结构可以分为实体识别和关系/属性抽取两部分,流程可以分为6步,其中2、3和4步会重复执行多次。 第1步:通过Hanlp和规则匹配的方式抽取部分实体 第2步:采用远程监督方法,用种子知识图谱对齐无标数据得到标出了实体的数据 第3步:用上一步得到的标出了实体的数据训练模型 第4步:用上一步训练的实体识别模型抽取无标数据中的实体,并将抽取出的实体加入到种子知识图谱中,增加种子知识图谱的规模,重复2,3,4步多次不断使种子知识图谱规则不断扩大 第5步:通过重复2,3,4步多次后得到扩展了大量实体的知识图谱,用种子知识图谱对齐无标数据,将无标数据中的实体都找出来 第6步:通过上一步得到无标数据中的实体后,使用规则的方法判断实体间的关系和属性
1790深度学习关系抽取
个人构建基于酒店咨询类对话机器人 1、项目使用RASA开源框架; 2、项目内加入自己训练的情感识别模型、信息抽取模型、意图识别模型; 3、可以作为酒店有限域对话机器人; 4、项目由本人独立完成。
1590深度学习机器学习/深度学习
序列标注开源项目
序列标注项目 1、基于LSTM-CRF结构做序列标注项目; 2、数据来源于开源数据; 3、模型准确率95%; 4、项目为本人个人联系项目。
1640深度学习自然语言处理
RosaeNLG 是一个开源的自然语言生成(NLG)项目,旨在提供与产品 NLG 解决方案相同的 NLG 功能,并为开发人员和 IT 提供方便的集成和配置。 RosaeNLG 模板是在 VSCo...
1560JavaScript自然语言处理
WantWords 是一个由清华大学自然语言处理实验室出品的开源在线反向词典。与为查询词提供定义的常规(正向)词典相反,反向词典返回与查询描述语义相符的词。 功能: 解决表述问题,即无法从记忆中...
1260Python自然语言处理
xmnlp 是一个轻量级中文自然语言处理工具,提供中文分词, 词性标注, 命名体识别,情感分析,文本纠错,文本转拼音,文本摘要,偏旁部首等功能。 功能概览 中文简体词法分析 (RoBERTa +...
2620Python自然语言处理
HarvestText 是一个专注无(弱)监督方法,能够整合领域知识(如类型,别名)对特定领域文本进行简单高效地处理和分析的库。适用于许多文本预处理和初步探索性分析任务,在小说分析,网络文本,专...
2920Python自然语言处理
Coqui TTS 是一个用于高级文本到语音生成的库。它建立在最新研究的基础上,旨在实现易于训练、速度和质量之间的最佳平衡。Coqui TTS 带有预训练模型、用于测量数据集质量的工具,并且已经...
3490PythonTTS/语音合成和处理
Common Voice 是 Mozilla 的开源项目,基于 MPL 协议发行,到目前为止已经诞生了几年时间,它允许志愿者们为语音识别软件的数据库做出贡献,而这个数据库属于公共领域,所有人都可...
2110查看源码 »自然语言处理
当前共35个项目
×
寻找源码
源码描述
联系方式
提交