好搜导航
首页»搜索导航:文章搜索试题搜索(32)诗词搜索书籍搜索站点搜索
好学题库|〔2023-湖北选调-89〕每吨电子垃圾中含有200~350g金。最近,国内团队研制出一种被命名为JNM的新吸附材料。JNM可对CPU废弃物浸出液中的金离子进行5次循环吸附,并保持较高吸附率:在高浓度干扰离子作用下,JNM能对金离子保持高选择性吸附,从150个CPU废弃物中,JNM能回收0.61g金。所以,JNM是目前回收复杂废液中微量金的最高效新材料。 上述结论若要增强说服力,还需要补充的前提是:
  中国→公务员|A|JNM对金的吸附量能伴随着金离子初始浓度增高而增大$B|JNM对金的最大吸附量超过了国内外已知的所有吸附材料$C|JNM能高效回收生活污水、工业废水和海水中的微量金$D|JNM在1000ppm时,对金的最大吸附量达到954mg/g公务员考试真题行测专项训练之逻辑判断(加强题型),一、基础题型【解析】第1步:找出论点和…〔08-21〕
标签:一、基础题型学段:职业初期学科:公务员来源:好学题库作者:Pioneer点击收藏

好学题库|〔2023-辽宁-94〕近期的一项研究从机理上揭示了经常喝咖啡对大脑内在功能网络的影响。在实验中,研究人员将受试者分为经常喝咖啡、偶尔喝咖啡和不喝咖啡三组,然后利用功能磁共振成像技术,比较了经常喝咖啡的人和不喝咖啡的人在休息时、工作时、喝咖啡不久后的大脑连接和结构。研究人员发现,经常喝咖啡的人小脑和皮层下区域的动态活动增加,这与提高注意力、警觉以及增强学习和记忆的效果相一致。研究人员认为,与不喝咖啡相比,经常喝咖啡有利于学习和记忆。 以下哪项如果为真,最能支持上述结论?
  中国→公务员|A|咖啡中含有咖啡因、单宁酸、油和氮化合物等100多种物质,经常饮用咖啡有助于缓解大脑疲劳$B|与不喝咖啡的受试者相比,经常喝咖啡的受试者小脑和丘脑之间的连接模式表现出更高的效率$C|研究证实,咖啡容易通过血脑屏障,刺激中枢神经,经常喝咖啡对于抑制焦虑有很好的作用$D|上述改变不仅出现在那些经常喝咖啡的受试者身上,偶尔喝…〔08-21〕
标签:一、基础题型学段:职业初期学科:公务员来源:好学题库作者:Pioneer点击收藏

好学题库|请详细介绍一下RLHF?
  当代→人工智能|请答题最新人工智能大模型面试常考题型汇总,面试主观题【解析】RLHF(基于人类反馈的强化学习)的核心目标是通过人类偏好数据优化大语言模型(LLM)的行为对齐,其关键组成部分和工作流程如下:一、关键组成部分1、人类反馈数据收集◇ 数据形式:通过人工标注员对模型输出的多个回复进行排序(如偏好选择A优于B),或直接评分(如1…〔08-21〕
标签:面试主观题学段:职业成长学科:人工智能来源:好学题库作者:Pioneer点击收藏

好学题库|大模型训练经常出现一些OOM问题,在现有硬件基础下,有什么方法提升trick性能?
  当代→人工智能|请答题最新人工智能大模型面试常考题型汇总,面试主观题【解析】在现有硬件条件下解决大模型训练中的OOM(内存溢出)问题,可通过以下优化策略提升训练效率与资源利用率:一、模型与算法优化1、混合专家模型(MoE)采用动态激活机制,仅调用部分专家网络处理特定任务,显著降低单次计算量。相比传统密集模型,MoE可减少训练成本和推理…〔08-21〕
标签:面试主观题学段:职业成长学科:人工智能来源:好学题库作者:Pioneer点击收藏

好学题库|请解释下SFT?有哪几种 SFT 方法?
  当代→人工智能|请答题最新人工智能大模型面试常考题型汇总,面试主观题【解析】根据搜索结果,当前主流的监督微调(SFT)方法主要分为以下三类,每类包含具体技术路线:一、全参数微调(Full Fine-Tuning)对预训练模型的所有参数进行更新,通过特定任务数据集重新训练整个模型。该方法能充分适配任务需求,但计算资源消耗大,需大量标注数…〔08-21〕
标签:面试主观题学段:职业成长学科:人工智能来源:好学题库作者:Pioneer点击收藏

好学题库|使用外挂知识库主要为了解决什么问题?
  当代→人工智能|请答题最新人工智能大模型面试常考题型汇总,面试主观题【解析】具体来说,外挂知识库主要为了解决以下几类问题:1、 解决知识“幻觉”和事实性错误的问题问题:大模型可能会“一本正经地胡说八道”(即产生幻觉),尤其是在问及它训练数据之外或非常细节、冷门的知识时。解决方案:外挂知识库提供了可靠的事实依据。AI的回答严格基于您提供…〔08-20〕
标签:面试主观题学段:职业成长学科:人工智能来源:好学题库作者:Pioneer点击收藏

好学题库|什么是LoRA微调?
  当代→人工智能|请答题最新人工智能大模型面试常考题型汇总,面试主观题【解析】一、什么是LoRA微调?LoRA(Low-Rank Adaptation,低秩适应)是一种用于高效微调大语言模型(LLM)和其他大型人工智能模型(如扩散模型)的参数高效微调技术。它的核心思想非常巧妙:不直接微调原始模型那巨大且昂贵的参数,而是通过注入和训练一些…〔08-20〕
标签:面试主观题学段:职业成长学科:人工智能来源:好学题库作者:Pioneer点击收藏

好学题库|简述RAG技术体系的总体思路是什么?如何评价 RAG 项目效果的好坏?
  当代→人工智能|请答题最新人工智能大模型面试常考题型汇总,面试主观题【解析】一、RAG技术体系的总体思路RAG(Retrieval-Augmented Generation,检索增强生成)的总体思路可以概括为一句话:“站在巨人的肩膀上,而非凭空创造。”其核心思想是”将大规模语言模型(LLM)强大的理解和生成能力与外部的、可信任的、海量…〔08-20〕
标签:面试主观题学段:职业成长学科:人工智能来源:好学题库作者:Pioneer点击收藏

  • 好学考题小程序开放注册,即送大礼
  • 好学考题微信小程序正式启航
  • 祝贺【好学触屏】公众号虎力全开、杨帆起航!