研发大模型训练数据质量论坛聚焦大模型训练数据的质量治理、领域适配与安全合规,深入探讨如何构建高价值、低噪声的领域数据集。论坛将解析数据清洗算法优化、多模态数据标注标准、私域知识增强等关键技术,并结合DeepSeek Zero等实践案例,分享数据偏差检测、知识蒸馏优化及敏感信息脱敏的解决方案。针对代码生成、测试用例等场景,重点讨论训练数据的多维度评估体系构建与全生命周期管理,助力企业突破数据质量瓶颈,释放大模型在研发效能提升中的核心价值。
研发大模型训练数据质量
大会主题
自动化到智能化测试实践
在数字化转型加速的当下,自动化测试已成为软件研发效能提升的核心引擎。从接口自动化、UI自动化到持续集成中的测试流水线构建,各行业正通过自动化测试实现快速交付与质量保障。但随着业务复杂度提升,传统自动化测试面临脚本维护成本高、场景覆盖不足、异常检测能力弱等挑战,行业亟需探索更智能的解决方案。当前,AI技术的突破为自动化测试注入全新动能,本次「自动化到智能化测试实践」分论坛,将聚焦一线互联网公司前沿实践,探讨AI赋能测试实践,迎接质量保障的智能时代。
基于开源Deepseek的质效提升实践
自人工智能技术蓬勃发展以来,深度学习作为其核心驱动力,正以前所未有的速度重塑着各行各业。开源深度学习平台 DeepSeek 凭借其易用性、高效性和可扩展性,已成为众多企业和开发者探索 AI 应用的首选工具。本次「基于开源 DeepSeek 的质效提升实践」论坛,将聚焦 DeepSeek 在实际应用中的最佳实践,议题涵盖:
1)DeepSeek 核心技术与生态解读: 深入解析 DeepSeek 的架构设计、算法模型和性能优势,探讨其生态体系和发展趋势。
2)行业应用案例分享: 邀请来自不同行业的专家分享基于 DeepSeek 的成功案例,展示 DeepSeek 如何助力企业实现智能化转型和质效提升。
3)模型能力提升实践: 探讨如何利用 DeepSeek 进行模型优化、数据处理、自动化流程构建等,分享提升模型精度、效率和稳定性的实战经验。
4)开源社区与生态建设: 探讨 DeepSeek 开源社区的发展现状和未来方向,分享如何参与社区贡献、共建开源生态的经验和思考。
智能化时代的研发效能提升实践
专场聚焦于探讨:在人工智能领域飞速发展的时代,大语言模型的出现有望为DevOps带来哪些技术变革。本专场重点讨论但不仅局限于“自动化和效率提升,智能监控和故障预测,Tools智能决策支持,用户体验改善智能分析”等相关话题,着重关注大语言模型在DevOps领域的应用,助力其实现自动化。参与者将了解AIOPS的一些优秀落点案例,从而能够帮助开发者应用在实际工作中,来逐步降低开发成本和运维成本,更好地为AIOPS赋能。
GenAI在测试领域的创新实践
在软件开发的快速迭代时代,测试领域面临着前所未有的挑战和机遇。随着生成式AI(GenAI)的崛起,测试流程的智能化和基于智能化的自动化测试迎来了全新变革。本专场旨在探索GenAI如何革新软件测试实践,提升测试效率和质量。本专场将汇聚行业领先的专家和实践者,分享GenAI在测试分析与设计、测试用例和脚本生成、自动化测试执行和缺陷预测等方面的创新应用。通过深入的案例分析和前沿技术展示,参会者将了解到GenAI如何帮助企业降低测试成本、缩短交付周期,并提高产品的可靠性。专场还将探讨GenAI在测试领域的未来发展趋势,以及如何克服在实际应用中可能遇到的挑战。无论是测试工程师、软件质量人员,还是质量管理者,都将在此专场中获得新的洞见和实用策略,推动组织在数字化时代的成功。
GenAI时代的代码质量
在人工智能快速发展的今天,代码生成技术正逐步成为软件工程领域的革命性力量,尤其是在大模型的推动下,程序的自动化生成和优化已进入一个全新的时代。然而,如何确保生成代码的质量,成为了推动这一技术应用的重要课题。
本专场将聚焦于 “GenAI时代的代码质量”,探索如何在大规模代码生成模型的基础上,通过先进的程序分析、代码质量检测、优化算法等技术手段提升代码的可靠性、可读性与可维护性。我们将深入讨论如何在代码生成过程中,充分利用数据预处理、指令微调、领域化训练等策略,提高生成质量,并通过行业最佳实践,确保生成代码符合行业标准及实际应用需求。本专场将邀请来自AI、软件工程及相关领域的重量级专家,分享他们在代码生成质量提升方面的最新研究成果与实战经验。
LLM赋能下全程质量管理
专场聚焦于探讨:如何借助大规模语言模型(Large Language Model,LLM)技术对企业的全流程质量管理体系进行赋能和优化。本专场将深入剖析包含但不限于“质量数据工程化构建、质量管控流程智能化升级、实时质量过程监控与告警、基于AI的智能决策支持”等核心话题,旨在探讨如何将大规模语言模型技术融入传统质量管理全过程,从而实现质量管理水平的全面提升及企业核心竞争力的持续稳固。
大模型评测体系与行业实践
随着大模型能力的持续突破,LLM技术已深入产业核心场景,推动各行各业的智能化转型。在此背景下,如何构建科学、系统的大模型评测体系以及如何结合行业应用需求来进行评估和验证,成为推动AI应用落地的关键命题。本专场将聚焦大模型评测框架设计、行业基准构建、技术-场景对齐等核心议题,通过分享前沿方法论、跨领域协作经验及典型行业案例(如金融、医疗、教育等),助力企业建立可量化、可复用的评估标准,加速大模型的规模化应用。
汇聚业界顶尖专家与领先企业,共同探讨专项测试领域的最新技术、实践与创新应用。本专场涵盖性能与可扩展性测试、安全测试、兼容性测试、用户体验测试、大数据与AI测试、区块链测试、IoT与边缘计算测试、数据质量、测试自动化、测试工具平台等相关话题,致力于推动专项测试技术的发展,提升产品质量与用户体验,助力企业实现持续的技术创新与市场竞争力提升。
专项测试
质效领域Agent实践
随着人工智能技术的飞速发展,智能化的Agent系统逐渐在软件质量和效能领域发挥着不可忽视的作用。质效领域的Agent实践正成为软件开发与运维中的重要工具,尤其是在自动化测试、质量保证、性能优化和资源管理等方面。本次专场将聚焦于Agent在提升软件质量与效能方面的创新实践,邀请业内专家分享他们在智能化Agent应用、工具链集成、质量监控和持续优化等方面的最新成果。我们将深入探讨如何利用Agent技术实现高效的质量管理,如何通过智能化手段提升软件的可靠性、稳定性和用户体验,以及如何借助智能Agent推动数字化转型中的质效融合。本次专场期待与大家共同探讨质效领域Agent的前沿实践,推动行业技术的升级与进步。
面向未来的系统稳定性
在云原生与分布式架构深度演进的背景下,系统稳定性建设正经历从被动应急向主动防御的范式升级。本专场聚焦智能化技术驱动下的稳定性工程演进,探讨架构韧性设计、全链路风险防控、智能运维体系构建等核心方向,同时关注大模型、AIOps等新技术与传统稳定性保障体系的融合创新。通过行业标杆案例解析,展现故障预防、快速定位、自适应恢复等关键能力的提升路径,为构建具备前瞻性的稳定性保障体系提供方法论支撑。
智能时代的质效度量
近十年,各IT企业都在积极的推进研发数字化,「效能度量」已经成为研发基础设施建设的必要环节之一。随着近几年的深入开展,各企业也都遇到了相似的难题,包括,如何建立体系化“研发效能指标体系”?如何让数据有效的诊断出效能问题,驱动研发团队持续提效,实现从度量→洞察的飞跃?在大模型时代,如何进一步引入LLM技术赋能效能度量,实现智能化诊断和辅助决策?本专场会和各效能专家、企业效能度量负责人共同探索这些问题,并分享实战案例,携手共同驱动效能度量领域的实践效果,逐步从度量到洞察再向智能化演进。
大前端质效提升实践
......
基于大模型的工具开发
本专场聚焦大模型在软件研发工具中的创新应用,探索其在代码生成、自动化测试、智能缺陷检测等领域的实践与挑战。论坛将深入探讨如何利用大模型提升研发效能,从需求分析到测试管理的全流程优化,以及多智能体协同在复杂场景中的落地应用。通过案例分享与技术解析,帮助开发者掌握大模型驱动工具开发的最佳实践,推动研发流程的智能化升级。
测试左移&右移落地实践
在敏捷与DevOps驱动的研发模式下,软件交付周期持续压缩,传统测试模式已难以应对高并发迭代与复杂业务场景的挑战。测试左移与右移作为质量保障体系的核心实践,通过“预防优于修复”和“持续监控反馈”的双向延伸,成为企业突破质量瓶颈的关键路径。本论坛聚焦测试左移与右移的落地方法论、工具链创新及行业实践,结合AI与大模型技术赋能,助力企业构建覆盖需求、开发、发布、运维全生命周期的质量防护网。
CONFERENCE TOPICS
......
.......
关注QECon公众号
关注QECon视频号
议题投稿 
lijie@qecon.net  
票务联系 
159-0126-5561  小娟
 
媒体合作
135-1619-6409  皮皮
商务合作
151-2264-3988  木子
购票咨询
15901265561  小娟         
服务总线
400-183-9980