哪个网站做美食视频软件关键词搜索量查询

张小明 2026/1/13 0:19:52
哪个网站做美食视频软件,关键词搜索量查询,制作html5网站,wordpress范例文章目录文本生成默认文本生成更改文本生成配置保存文本生成配置通用参数常见问题输出长度解码策略填充提示格式Transformers 是一个采用当下技术最新、表现最佳#xff08; State-of-the-art#xff0c; SoTA#xff09;的模型和技术在预训练 自然语言处理、 计算机视觉、 …文章目录文本生成默认文本生成更改文本生成配置保存文本生成配置通用参数常见问题输出长度解码策略填充提示格式Transformers是一个采用当下技术最新、表现最佳State-of-the-artSoTA的模型和技术在预训练自然语言处理、计算机视觉、音频和多模态模型方面提供推理和训练的的开源库旨在快速易用以便每个人都可以开始使用transformer模型进行学习或构建。该库不仅包含Transformer模型还包括用于计算机视觉任务的现代卷积网络等非Transformer模型。文本生成文本生成Text generation是大型语言模型Large Language ModelsLLMs最流行的应用。LLMs从给定一些初始文本提示从训练生成下一个词token并自动生成输出直到预定义的长度或碰到序列结束符end-of-sequenceEOS。在Transformers中 [~GenerationMixin.generate] API 处理文本生成可用于所有具有文本生成功能的模型。默认文本生成Bitsandbytes是一个大数据模型通过使用基于CUDA的 GPU可以支持多种量化器后端。下面我们使用大数据模型[bitsandbytes]在默认配置下情况下生成文本作为案例。首先安装大数据模型!pip install -U transformers bitsandbytes通过 [~PreTrainedModel.from_pretrained] 加载大数据模型并配置以下两个参数来降低对内存的需求device_mapauto启用使用 [Big Model Inference]自动初始化模型框架并在所有可用设备上加载和调度模型权重到最快的设备GPU上。quantization_config:是一个定义量化器的配置对象。这个例子使用bitsandbytes作为量化后端加载4B模型。from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig quantization_config BitsAndBytesConfig(load_in_4bitTrue) model AutoModelForCausalLM.from_pretrained(mistralai/Mistral-7B-v0.1, device_mapauto, quantization_configquantization_config)标记输入设置 [~PreTrainedTokenizer.padding_side] 为left因为LLM没有被训练继续从填充token生成。tokenizer AutoTokenizer.from_pretrained(mistralai/Mistral-7B-v0.1, padding_sideleft) model_inputs tokenizer([A list of colors: red, blue], return_tensorspt).to(cuda)标记器返回包括tokenid和attention掩码。通过 [~GenerationMixin.generate] 将返回结果传入并生成token序列最后通过 [~PreTrainedTokenizer.batch_decode] 将token序列转化为文本输出generated_ids model.generate(**model_inputs) tokenizer.batch_decode(generated_ids, skip_special_tokensTrue)[0]结果A list of colors: red, blue, green, yellow, orange, purple, pink,更改文本生成配置[GenerationConfig]包含了所有的生成设置。上例中 文本生成设置是根据 [mistralai/Mistral-7B-v0.1] 模型下的generation_config.json文件派生出来的。当配置没有与模型一起保存时将使用默认解码策略。通过generation_config属性来检查配置。它只展示与默认配置不同的值本例中为bos_token_id和eos_token_id。from transformers import AutoModelForCausalLM model AutoModelForCausalLM.from_pretrained(mistralai/Mistral-7B-v0.1, device_mapauto) model.generation_config GenerationConfig { bos_token_id: 1, eos_token_id: 2 }也可以通过设置 [~GenerationMixin.generate] 方法的输入参数来覆盖 [GenerationConfig]中已有的配置参数值。max_new_tokens,num_beams,do_sample, 和num_return_sequences这几个是最常调整的参数。# enable beam search sampling strategy model.generate(**inputs, num_beams4, do_sampleTrue)[~GenerationMixin.generate]也可以使用外部库或自定义代码进行扩展。logits_processor参数接受自定义 [LogitsProcessor]实例来计算下一个token概率分布stopping_criteria参数接受自定义[StoppingCriteria] 实例来停止文本生成。保存文本生成配置下面代码演示通过创建 [GenerationConfig] 实例时传入解码参数来覆盖 [GenerationConfig]对应的既有参数值并保存from transformers import AutoModelForCausalLM, GenerationConfig model AutoModelForCausalLM.from_pretrained(my_account/my_model) generation_config GenerationConfig( max_new_tokens50, do_sampleTrue, top_k50, eos_token_idmodel.config.eos_token_id )使用 [~GenerationConfig.save_pretrained]方法保存已修改的配置参数值到配置文件中并通过设置传入参数push_to_hub为True将配置自动上传到Hub中generation_config.save_pretrained(my_account/my_model, push_to_hubTrue)config_file_name参数用来设置配置文件名当在单个目录中存储多个生成配置时使用该参指定要加载哪个生成配置的方法。这样可以为不同的生成任务如带有采样的创造性文本生成带有光束搜索的摘要等使用不同的配置以便与单个模型一起使用。from transformers import AutoModelForSeq2SeqLM, AutoTokenizer, GenerationConfig tokenizer AutoTokenizer.from_pretrained(google-t5/t5-small) model AutoModelForSeq2SeqLM.from_pretrained(google-t5/t5-small) translation_generation_config GenerationConfig( num_beams4, early_stoppingTrue, decoder_start_token_id0, eos_token_idmodel.config.eos_token_id, pad_tokenmodel.config.pad_token_id, ) translation_generation_config.save_pretrained(/tmp, config_file_nametranslation_generation_config.json, push_to_hubTrue) generation_config GenerationConfig.from_pretrained(/tmp, config_file_nametranslation_generation_config.json) inputs tokenizer(translate English to French: Configuration files are easy to use!, return_tensorspt) outputs model.generate(**inputs, generation_configgeneration_config) print(tokenizer.batch_decode(outputs, skip_special_tokensTrue))通用参数[~GenerationMixin.generate] 是一个功能强大的工具可以进行大量定制。在Transformers中大多数文本生成工具中都可以自定定义这些参数如[~GenerationMixin.generate], [GenerationConfig],pipelines等。参数名类型描述max_new_tokensint控制token的最大生成数量。一般默认值为定义的很小所以最好设置整个参数。do_samplebool该参数设置采样的方式如果参数值为True表示生成时会采样下一个token否则为贪婪式采样。 大多数用例应该将这个标志设置为“True”。temperaturefloat高值“0.8”适用于创造性任务低值(如“0.4”)适用于需要“思考”的任务。如果需要该值有效需设置do_sample True。num_beamsint如果设置值大于1则会激活并使用波束搜索算法。repetition_penaltyfloat如果模型重复率太高可将该参数值设置大于 1.0。值越大惩罚越大。eos_token_idList[int]设置结束符标识。通常情况下使用默认值即可如果需要可以通过该参数指定为其他值。常见问题在文本生成过程中可能遇到的一些常见问题这些问题可能是下面其中之一。输出长度[~GenerationMixin.generate] 默认返回最多20个token除非在 [GenerationConfig]中另有指定。强烈建议使用 [max_new_tokens] 参数手动设置生成的token数量以控制输出长度。model_inputs tokenizer([A sequence of numbers: 1, 2], return_tensorspt).to(cuda)下面代码使用默认的tokengenerated_ids model.generate(**model_inputs) tokenizer.batch_decode(generated_ids, skip_special_tokensTrue)[0] A sequence of numbers: 1, 2, 3, 4, 5下面代码通过max_new_tokens手工设置generated_ids model.generate(**model_inputs, max_new_tokens50) tokenizer.batch_decode(generated_ids, skip_special_tokensTrue)[0] A sequence of numbers: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16,解码策略[~GenerationMixin.generate] 中使用的是默认解码策略即贪婪搜索算法greedy search。虽然这种解码策略适用于基于输入的任务转录、翻译但对于更具创造性的用例故事写作、聊天应用程序却不是最佳选择。如果需要其他策略需通过在 [GenerationConfig]中另有指定。model_inputs tokenizer([I am a cat.], return_tensorspt).to(cuda) generated_ids model.generate(**model_inputs) tokenizer.batch_decode(generated_ids, skip_special_tokensTrue)[0]例如启用 [multinomial sampling] 策略来生成更多样化的输出。参考[生成策略]./generation_strategies指南了解更多解码策略model_inputs tokenizer([I am a cat.], return_tensorspt).to(cuda) generated_ids model.generate(**model_inputs, do_sampleTrue) tokenizer.batch_decode(generated_ids, skip_special_tokensTrue)[0]填充如果输入序列的长度不相同则需要填充。但是LLMs并没有被训练来继续填充token生成这意味着 [~PreTrainedTokenizer.padding_side] 参数需要设置填充为left或right。以下代码设置为右侧model_inputs tokenizer( [1, 2, 3, A, B, C, D, E], paddingTrue, return_tensorspt ).to(cuda) generated_ids model.generate(**model_inputs) tokenizer.batch_decode(generated_ids, skip_special_tokensTrue)[0]结果1, 2, 33333333333以下代码设置为左侧tokenizer AutoTokenizer.from_pretrained(mistralai/Mistral-7B-v0.1, padding_sideleft) tokenizer.pad_token tokenizer.eos_token model_inputs tokenizer( [1, 2, 3, A, B, C, D, E], paddingTrue, return_tensorspt ).to(cuda) generated_ids model.generate(**model_inputs) tokenizer.batch_decode(generated_ids, skip_special_tokensTrue)[0]结果1, 2, 3, 4, 5, 6,提示格式一些模型和任务需要特定的输入提示格式如果格式不正确模型则会返回次优输出。例如聊天模型期望输入为[聊天模板]。你的提示应该包括 “角色” 和 “内容”以表明谁参与了对话。如果您尝试将提示作为单个字符串传递则模型并不一定返回预期的输出。from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer AutoTokenizer.from_pretrained(HuggingFaceH4/zephyr-7b-alpha) model AutoModelForCausalLM.from_pretrained( HuggingFaceH4/zephyr-7b-alpha, device_mapauto, load_in_4bitTrue )以下是将提示作为单一字符串传入的案例该方式会导致返回不一定是预期的输出prompt How many cats does it take to change a light bulb? Reply as a pirate. model_inputs tokenizer([prompt], return_tensorspt).to(cuda) input_length model_inputs.input_ids.shape[1] generated_ids model.generate(**model_inputs, max_new_tokens50) print(tokenizer.batch_decode(generated_ids[:, input_length:], skip_special_tokensTrue)[0])结果Aye, matey! Tis a simple task for a cat with a keen eye and nimble paws. First, the cat will climb up the ladder, carefully avoiding the rickety rungs. Then, with下面案例将提示格式化后传入messages [ { role: system, content: You are a friendly chatbot who always responds in the style of a pirate, }, {role: user, content: How many cats does it take to change a light bulb?}, ] model_inputs tokenizer.apply_chat_template(messages, add_generation_promptTrue, return_tensorspt).to(cuda) input_length model_inputs.shape[1] generated_ids model.generate(model_inputs, do_sampleTrue, max_new_tokens50) print(tokenizer.batch_decode(generated_ids[:, input_length:], skip_special_tokensTrue)[0])结果Arr, matey! According to me beliefs, twas always one cat to hold the ladder and another to climb up it an’ change the light bulb, but if yer looking to save some catnip, maybe yer can
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

合肥设网站中国建设银行官网网站

Wan2.1视频生成模型:从零开始打造专业级AI视频创作平台 【免费下载链接】Wan2.1-I2V-14B-480P 项目地址: https://ai.gitcode.com/hf_mirrors/Wan-AI/Wan2.1-I2V-14B-480P 还在为视频制作的技术门槛和成本发愁?阿里通义实验室的Wan2.1-I2V-14B-4…

张小明 2025/12/31 3:34:17 网站建设

国内专门做情侣的网站商城襄阳市建设局网站

1.相对定向的转换使用opencv的代码进行相对定向后,1)首先把计算出来的三维点,y值变为负的y值,z值变为负的z值2)把计算出来的RT,改造成T表示右相机中心在左相机的坐标,然后y值变为负的y值&#x…

张小明 2025/12/30 20:52:21 网站建设

茶叶网站设计小程序代理推广

最近有学员出去面试,他们面试的岗位为AI应用工程师、Agent应用工程师或者AI产品经理,而最近经常会遇到的一个问题是:什么是ReAct,他主要是来解决什么问题的?怎么说呢,这个问题问的太大了,他其实…

张小明 2025/12/30 18:23:12 网站建设

网站制作与app开发哪个要难一点厦门做网站优化价格

QtScrcpy虚拟按键映射:把手机游戏变成电脑端游的终极方案 【免费下载链接】QtScrcpy QtScrcpy 可以通过 USB / 网络连接Android设备,并进行显示和控制。无需root权限。 项目地址: https://gitcode.com/GitHub_Trending/qt/QtScrcpy 还在为手机屏幕…

张小明 2026/1/3 4:09:09 网站建设

张店网站建设价官方网站改版建议

你是否经历过这样的场景:备份文件在传输过程中被截获,导致企业核心数据泄露?或者因为密钥管理不当,在灾难恢复时无法解密备份数据?这些问题正是传统备份方案无法解决的痛点。本文将通过问题导向的实战方法,…

张小明 2026/1/12 2:34:37 网站建设

聊城做网站的正确的网址格式怎么写

Kotaemon增长黑客策略生成:低成本获客点子 在客户咨询量持续攀升、服务人力成本居高不下的今天,越来越多企业开始寻找既能保障服务质量又能控制运营支出的智能解决方案。尤其是中小企业和初创团队,往往面临“想做AI客服但预算有限、技术储备不…

张小明 2026/1/10 9:20:56 网站建设