最新公告
  • 欢迎您光临码农资源网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!加入我们
  • 为什么我的 Google Colab 会话在运行 Llama 模型时崩溃?

    我正在尝试使用 meta-llama/llama-2-7b-hf 模型并在我的场所本地运行它,但会话在此过程中崩溃了。

    我正在尝试使用 meta-llama/llama-2-7b-hf 模型并在我的场所本地运行它。为此,我使用 google colab 并从 hugging face 获取了访问密钥。我正在利用他们的变压器库来完成必要的任务。最初,我在 google colab 上使用 t4 gpu 运行时堆栈,它提供 12.7 gb 系统 ram、15.0 gb gpu ram 和 78.2 gb 磁盘空间。尽管有这些资源,我的会话还是崩溃了,并且遇到了以下错误:
    为什么我的 Google Colab 会话在运行 Llama 模型时崩溃?

    随后,我切换到 tpu v2 运行时堆栈,它提供 334.6 gb 的系统 ram 和 225.3 gb 的磁盘空间,但问题仍然存在。

    这是我的代码:

    !pip install transformers
    !pip install --upgrade transformers
    
    from huggingface_hub import login
    login(token='Access Token From Hugging Face')
    
    import pandas as pd
    from transformers import AutoTokenizer, AutoModelForSequenceClassification, TrainingArguments, Trainer
    from torch.utils.data import Dataset
    
    # Load pre-trained Meta-Llama-3.1-8B model
    model_name = "meta-llama/Llama-2-7b-hf"
    tokenizer = AutoTokenizer.from_pretrained(model_name)
    model = AutoModelForSequenceClassification.from_pretrained(model_name)
    
    想要了解更多内容,请持续关注码农资源网,一起探索发现编程世界的无限可能!
    本站部分资源来源于网络,仅限用于学习和研究目的,请勿用于其他用途。
    如有侵权请发送邮件至1943759704@qq.com删除

    码农资源网 » 为什么我的 Google Colab 会话在运行 Llama 模型时崩溃?
    • 7会员总数(位)
    • 25846资源总数(个)
    • 0本周发布(个)
    • 0 今日发布(个)
    • 291稳定运行(天)

    提供最优质的资源集合

    立即查看 了解详情