File size: 5,844 Bytes
55f834a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
import json
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
from pydantic import BaseModel, Field
from typing import List, Tuple
from langchain.chat_models import ChatOpenAI
from langchain.output_parsers import PydanticOutputParser

# Modèles Pydantic pour structurer la réponse
class AlternativeSuggestion(BaseModel):
    suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
    suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")

class PatternDetail(BaseModel):
    pattern: str = Field(..., description="Mot ou expression détectée.")
    indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
    sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
    alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation.")

    def to_dict(self):
        return {
            "pattern": self.pattern,
            "indices": self.indices,
            "sentence": self.sentence,
            "alternative_suggestions": {
                "suggestion_1": self.alternative_suggestions.suggestion_1,
                "suggestion_2": self.alternative_suggestions.suggestion_2,
            }
        }

class Summary(BaseModel):
    total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
    alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
    occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")

    def to_dict(self):
        return {
            "total_patterns_detected": self.total_patterns_detected,
            "alternative_suggestions_provided": self.alternative_suggestions_provided,
            "occurrences": self.occurrences
        }

class DetectionResult(BaseModel):
    patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
    summary: Summary = Field(..., description="Résumé de la détection.")

    def to_dict(self):
        return {
            "patterns": [pattern.to_dict() for pattern in self.patterns],
            "summary": self.summary.to_dict()
        }

# Fonction pour générer le prompt template
def imaginez_prompt_template():
    return """
   Analyser le texte suivant et détecter toutes les occurrences de l'expression "Imaginez" et ses variantes telles que :

    "Visualisez", "Envisagez", "Concevez", "Supposez", "Pensez à", "Représentez-vous", "Imaginez-vous"

Pour chaque occurrence trouvée, veuillez :

   - Citer la phrase complète où l'expression apparaît.
   - Indiquer l'expression exacte utilisée dans le texte.
   - Expliquer pourquoi ces expressions peuvent alourdir ou rendre l'introduction trop familière, directe ou directive.
   - Proposer deux reformulations plus simples, fluides et naturelles pour rendre la phrase plus concise ou directe,
     en évitant d'utiliser l'expression "Imaginez" ou ses variantes. Assurez-vous que la reformulation conserve le sens original
     tout en étant plus formelle et professionnelle.

Assurez-vous également de respecter les règles suivantes :
1. Les expressions comme "crucial", "essentiel", "important", "fondamental" ne doivent pas être utilisées plus d'une fois dans l'introduction.
2. Les expressions comme "il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs tels qu'"important", "essentiel", etc.
4. "En plus" ne doit pas être utilisé seul en début de phrase.

Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :

- "pattern": "mot ou expression détectée",
- "indices": [[index de début, index de fin pour chaque occurrence]],
- "sentence": "phrase où l'expression est utilisée",
- "alternative_suggestions": ["suggestion 1", "suggestion 2"]

Si aucun pattern n'est trouvé, retournez un JSON avec :
- "pattern0": "",
- "occurrences": 0,

À la fin, ajoutez un résumé avec :
- "total_patterns_detected": nombre total de patterns détectés,
- "alternative_suggestions_provided": nombre de suggestions données,
- "occurrences": nombre d'occurrences.

Voici le texte à analyser :
```{text}```

\n{format_instruction}
    """

def imaginez(text):
    # Créer le template avec la variable text intégrée directement
    prompt_template = imaginez_prompt_template()

    output_parser = PydanticOutputParser(pydantic_object=DetectionResult)

    # Créer le prompt avec le texte intégré
    gen_prompt_template = PromptTemplate(
        input_variables=["text"],
        template=prompt_template,
        partial_variables={'format_instruction': output_parser.get_format_instructions()}
    )

    # Créer une instance du modèle de langage
    llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")

    # Exécuter la chaîne avec le LLM
    llm_chain = gen_prompt_template | llm | output_parser

    # Appel du modèle avec le texte fourni
    result_dict = llm_chain.invoke({"text": text}).to_dict()

    # Parsing de la réponse JSON
    json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)

    # Générer le prompt final
    final_prompt = gen_prompt_template.format(text=text)

    # Retourne les suggestions ou les erreurs de parsing
    return {
        "result": json_result,
        "prompt": final_prompt
    }