魔乐社区与 openMind 携手:模型托管与创新应用

随着人工智能和大数据的快速发展,选择一个安全、高效、可扩展的模型托管和推理平台至关重要。在openMind上部署模型可以充分利用其强大的计算能力、灵活的资源调度和完善的数据管理功能。无论是初创项目还是成熟企业,使用openMind都可以在短时间内快速构建、训练和部署模型,大大提高研发效率。此外,openMind还拥有良好的社区生态和技术支持,可以及时为开发者解决问题,并在不断的发展中推出更多创新的功能和工具。

Magic Community与openMind合作,为开发者提供开放平台,鼓励更多人参与创新技术的分享。通过这个平台,开发者不仅可以体验openMind的强大能力,还可以在应用实践中实现自己的技术创造力。这种开放的合作模式不仅为开发者提供了展示技术成果的机会,也为openMind带来了宝贵的反馈和实践经验,推动技术的不断进步和完善。

操作流程也比较简单,可以快速上手:

1、进入摩尔社区官网创建用户

b9aba75d3bff41eaa4e5392b26139c32~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=HA%2B625OlgzVEY%2B5S7FD7R39CgdE%3D2。通过以下流程下载和上传模型

注册用户并创建Token a0bd85c279364c44b4a9bbb385c2b669~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=AZb3GLITkqI61VEaojgXuQc3hxo%3D 26f94828ffc1435d933d5b5e1fc0a087~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=5REr20%2F7Ibe1WiHUAknwFz9pJvU%3D

27dd5f6807ea430a91b4d022395c59d2~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=P6ZSTbSlj54I3q9HcSGaDrdVrPw%3D

登录Magic社区后,在个人中心创建一个具有写入权限的Token,需要复制该Token用于后续模型上传操作。

创建模型仓库9ed3cddb40cf472dbf0ccf86f2fca465~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=o5Gem%2FEaY05cx3gbdGA0kvWyQKE%3D

9acc9af4acb44f879e25a28040d4a2da~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=%2F5ZfIuc0%2Bcm38rGxERYnGsgKhCU%3D

填写仓库信息并创建后,系统会自动生成包含模型信息的README.md文件。 README文档主要用于模型项目的概述、安装说明、使用方法、代码示例、贡献指南等信息,帮助用户和开发者更好地理解和使用项目。

将模型上传到Magic Community。您可以通过以下三种方式之一将模型上传到Magic Community。

创造环境

注意python解释器的版本只能是3.8 3.9 3.10,否则无法下载对应的库。

要安装该库,只需在终端中输入三行指令:

pip 安装openMind

pip 安装openMind_hub

点安装火炬

其中:openMind和openMind_hub是MoLe社区提供的核心库,主要用于与MoLe社区的模型管理和服务进行交互。它包含模型加载和训练功能,帮助开发者在Magic Platform上轻松管理自己的机器学习模型。安装命令:pip install openMind、pip install openMind_hub

其中,torch是PyTorch框架的核心库。 PyTorch 是一种流行的深度学习框架,广泛用于模型训练、推理和其他任务。 Magic Community允许使用PyTorch进行深度学习模型的训练和部署,因此需要安装torch库来支持相关操作。安装命令:pip install torch

openMind Hub Client 提供了upload_folder 函数,用于上传文件夹到仓库。常用参数:folder_path(要上传的本地文件夹路径,必填)和repo_id(仓库地址,必填)

from openMind_hub import upload_folderimport os# 使用upload_folder 上传文件夹到仓库。 # token:对目标仓库具有可写权限的访问令牌,必填。 #folder_path:要上传的本地文件夹路径,必填。 # repo_id:目标仓库,必填。 # 如果需要过滤上传的文件类型,可以使用allow_patterns和ignore_patterns参数。有关详细信息,请参阅upload_folder。 upload_folder(token=’token’,folder_path=r’~/new/hustvl/visualbert-vcr-coco-pre’,repo_id=’jackma/visualbert-vcr-coco-pre’)

上面的代码示例将本地文件夹中的所有文件上传到仓库jackma/visualbert-vcr-coco-pre,其中用户名用红色下划线表示。默认情况下,该文件夹中的所有文件都将上传到存储库的根目录。

3 模型可用性测试

添加示例文件

在计算机上找到下载的文件,并在该文件夹中创建一个新的示例文件夹。

b37e0996da1e46a2ad8204804dd5d7df~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=qZieNr8MGyXl66iipfKMBVxa2%2BE%3D文件夹下新建两个文件,一个是inference.py,一个是requirements.txt

1e4a67a5e862420b86956e3e50802493~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=J0cyJ%2BMIv3dNWGzZpovDeku4cCs%3DInference.py文件包含一段代码,如下:

from Transformers import AutoTokenizer, AutoModelimport torchimport torch.nn.function as Fimport osdefmean_pooling(model_output, Attention_mask):token_embeddings=model_output.last_hidden_stateinput_mask_expanded=Attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()返回火炬。 sum(token_embeddings * input_mask_expanded, 1)/torch.clamp(input_mask_expanded.sum(1), min=1e-9)def main():# 句子列表句子=[‘这是例句’, ‘每句话都转换了’]# 加载model 和tokenizer model_path=’jackma/visualbert-vcr-coco-pre’# 确保模型文件存在,如果不存在os.path.exists(os.path.join(model_path, ‘config.json’)):print(f’Error: {model_path}/config.json 未找到!’) returntokenizer=AutoTokenizer.from_pretrained( model_path)model=AutoModel. from_pretrained(model_path)# 分词encoded_input=tokenizer(sentences, padding=True, truncation=True, return_tensors=’pt’)# 使用torch.no_grad():model_output=model(**encoded_input)计算嵌入sentence_embeddings=mean_pooling(model_output,encoded_input[‘attention_mask’])sentence_embeddings=F.normalize(sentence_embeddings, p=2、dim=1)print(‘句子embeddings:’)print(sentence_embeddings)if __name__==’__main__’:main()

选择测试用的pytorch版本,可以对应inference.py文件。

bb11c52082684548b8ef26613c35e5c4~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=Qt6OUlCsDLZ2%2BTd9KpqlonR5sSs%3D 11523577fe0b4e4bbc0d839f2eb3e537~tplv-tt-origin-web:gif.jpeg?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1736930712&x-signature=DME9LwgioPxSeXNE91Y4OkwN76Y%3D 选择inference.py对应的pytorch版本进行测试。如果模型测试通过,则上传成功。该模型已通过CI测试,具有实用价值,为实际业务应用奠定了基础。

在openMind平台上,将图形模型Visualbert应用于图像生成任务。它根据用户输入的文字描述生成相应的图像,为创意设计、游戏开发等提供新的技术手段,包括以下几种形式。如果你有兴趣,可以去神奇快乐社区尝试一下。

视觉问答(VQA):能够理解图像内容和与图像相关的问题并给出正确答案。模型需要将从图像中提取的特征向量与对问题的理解相结合,才能准确回答关于图像的各种问题,例如“图片中的汽车是什么颜色?”。图像描述生成:可以根据输入图像生成自然语言描述,帮助为图像添加标题或注释,让计算机自动理解和表达图像的内容,例如生成“这是美丽的海滩日落”对于风景图片。 “金色的阳光照耀着波光粼粼的海面。”这样的描述。 图文交互生成:可以与图像生成模型结合,根据生成的文字描述重新生成对应的图像,实现图文之间的反复转换与融合。零样本图像分类:在没有看到任何样本的情况下,通过了解图像的特征向量和预定义的类别名称,将图像与类别关联起来进行分类。openMind 凭借其技术优势,推动人工智能领域的创新应用。模型训练,未来,openMind将继续为开发者提供丰富的工具和服务,帮助实现更多的创新应用。希望本文能为开发者提供技术见解,帮助他们更好地利用。我们也希望更多的开发者在MoLe社区和openMind的支持下,能够体验到大模型带来的技术发展,为开发者提供技术研究。良好的学习体验空间。

版权声明:本文转载于网络,版权归作者所有。如有侵权,请联系本站编辑删除。

免责声明:文章内容不代表本站立场,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,文章版权归原作者所有。如本文内容影响到您的合法权益(内容、图片等),请及时联系本站,我们会及时删除处理。

为您推荐