معاينة Gemini 3.1 Flash-Lite

هذا النموذج المتعدّد الوسائط هو الأكثر فعالية من حيث التكلفة، ويقدّم أسرع أداء للمهام الخفيفة والمتكرّرة. ‫Gemini 3.1 Flash-Lite هو الخيار الأفضل للمهام التي تتطلّب وكيلًا ومعالجة كميات كبيرة من البيانات، واستخراج البيانات البسيط، والتطبيقات التي تتطلّب وقت استجابة منخفضًا للغاية، حيث يشكّل كل من الميزانية والسرعة القيود الأساسية.

gemini-3.1-flash-lite-preview

الموقع الوصف
رمز النموذج gemini-3.1-flash-lite-preview
أنواع البيانات المتوافقة

المدخلات

النصوص والصور والفيديوهات والمحتوى الصوتي وملفات PDF

الناتج

نص

حدود الرموز المميزة[*]

حد الرموز المميزة للإدخال

1,048,576

الحد الأقصى لعدد الرموز المميزة في الناتج

65,536

الإمكانات

إنشاء الصوت

غير متاح

Batch API

متاح

التخزين المؤقت

متاح

تنفيذ الرمز

متاح

استخدام الكمبيوتر

غير متاح

البحث عن الملفات

متاح

استدعاء الدوال

متاح

استخدام "خرائط Google" كمصدر

غير متاح

إنشاء الصور

غير متاح

Live API

غير متاح

تحديد المصادر في "بحث Google"

متاح

المخرجات المنظَّمة

متاح

التفكير

متاح

سياق عنوان URL

متاح

إصدارات
يمكنك الاطّلاع على أنماط إصدارات النماذج لمزيد من التفاصيل.
  • Preview: gemini-3.1-flash-lite-preview
آخر تعديل مارس 2026
تاريخ آخر تحديث للبيانات يناير 2025

دليل مطوّري البرامج

يُعدّ Gemini 3.1 Flash-Lite الأفضل في التعامل مع المهام المباشرة على نطاق واسع. في ما يلي بعض حالات الاستخدام الأنسب لـ Gemini 3.1 Flash-Lite:

  • الترجمة: ترجمة سريعة ورخيصة وعلى نطاق واسع، مثل معالجة رسائل المحادثة والمراجعات وطلبات الدعم على نطاق واسع يمكنك استخدام تعليمات النظام لحصر الناتج على النص المترجَم فقط بدون أي تعليقات إضافية:

    text = "Hey, are you down to grab some pizza later? I'm starving!"
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        config={
            "system_instruction": "Only output the translated text"
        },
        contents=f"Translate the following text to German: {text}"
    )
    
    print(response.text)
    
  • التحويل إلى نص: يمكنك معالجة التسجيلات أو الملاحظات الصوتية أو أي محتوى صوتي آخر تحتاج فيه إلى نص مكتوب بدون الحاجة إلى إنشاء مسار منفصل لتحويل الصوت إلى نص. تتيح هذه الطريقة إدخال وسائط متعددة، ما يتيح لك تمرير ملفات صوتية مباشرةً لتحويلها إلى نص:

    # URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3"
    
    # Upload the audio file to the GenAI File API
    uploaded_file = client.files.upload(file='sample.mp3')
    
    prompt = 'Generate a transcript of the audio.'
    
    response = client.models.generate_content(
      model="gemini-3.1-flash-lite-preview",
      contents=[prompt, uploaded_file]
    )
    
    print(response.text)
    
  • المهام الخفيفة المستندة إلى الوكلاء واستخراج البيانات: إمكانية استخراج الكيانات وتصنيفها وإنشاء مسارات خفيفة لمعالجة البيانات، مع إمكانية إخراج البيانات بتنسيق JSON المنظَّم على سبيل المثال، استخراج بيانات منظَّمة من مراجعة عميل على موقع للتجارة الإلكترونية:

    from pydantic import BaseModel, Field
    
    prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk"
    input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back."
    
    class ReviewAnalysis(BaseModel):
        aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)")
        summary_quote: str = Field(description="The specific phrase from the review about this aspect")
        sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)")
        is_return_risk: bool = Field(description="True if the user mentions returning the item")
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[prompt, input_text],
        config={
            "response_mime_type": "application/json",
            "response_json_schema": ReviewAnalysis.model_json_schema(),
        },
    )
    
    print(response.text)
    
  • معالجة المستندات وتلخيصها: تحليل ملفات PDF وعرض ملخّصات موجزة، مثلاً لإنشاء مسار معالجة المستندات أو فرز الملفات الواردة بسرعة:

    import httpx
    
    # Download a sample PDF document
    doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf"
    doc_data = httpx.get(doc_url).content
    
    prompt = "Summarize this document"
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[
            types.Part.from_bytes(
                data=doc_data,
                mime_type='application/pdf',
            ),
            prompt
        ]
    )
    
    print(response.text)
    
  • توجيه الطلبات إلى النماذج: استخدِم نموذجًا منخفض الاستجابة ومنخفض التكلفة كأداة تصنيف توجّه الطلبات إلى النموذج المناسب استنادًا إلى مدى تعقيد المهمة. هذا نمط حقيقي في مرحلة الإنتاج، إذ يستخدم Gemini CLI المفتوح المصدر Flash-Lite لتصنيف مدى تعقيد المهام وتوجيهها إلى Flash أو Pro وفقًا لذلك.

    FLASH_MODEL = 'flash'
    PRO_MODEL = 'pro'
    
    CLASSIFIER_SYSTEM_PROMPT = f"""
    You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX).
    1.  `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks.
    2.  `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks.
    
    A task is COMPLEX if it meets ONE OR MORE of the following criteria:
    1.  High Operational Complexity (Est. 4+ Steps/Tool Calls)
    2.  Strategic Planning and Conceptual Design
    3.  High Ambiguity or Large Scope
    4.  Deep Debugging and Root Cause Analysis
    
    A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls).
    """
    
    user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?"
    
    response_schema = {
      "type": "object",
      "properties": {
        "reasoning": {
          "type": "string",
          "description": "A brief, step-by-step explanation for the model choice, referencing the rubric."
        },
        "model_choice": {
          "type": "string",
          "enum": [FLASH_MODEL, PRO_MODEL]
        }
      },
      "required": ["reasoning", "model_choice"]
    }
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=user_input,
        config={
            "system_instruction": CLASSIFIER_SYSTEM_PROMPT,
            "response_mime_type": "application/json",
            "response_json_schema": response_schema
        },
    )
    
    print(response.text)
    
  • التفكير: للحصول على دقة أفضل في المهام التي تستفيد من الاستدلال خطوة بخطوة، اضبط إعدادات التفكير لكي يستهلك النموذج قدرة حوسبة إضافية في الاستدلال الداخلي قبل إنتاج الناتج النهائي:

    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents="How does AI work?",
        config=types.GenerateContentConfig(
            thinking_config=types.ThinkingConfig(thinking_level="high")
        ),
    )
    
    print(response.text)