Spaces:
Runtime error
Runtime error
Commit
·
0c53943
1
Parent(s):
cb7be16
adding five other patherns
Browse files- app.py +100 -2
- pattern_decision.py +128 -0
- pattern_il_existe.py +133 -0
- pattern_il_faut.py +129 -0
- pattern_look.py +128 -0
- pattern_vous_pouvez.py +129 -0
app.py
CHANGED
@@ -9,7 +9,11 @@ from pattern_epoque import epoque, epoque_prompt_template
|
|
9 |
from pattern_est_une_etape import une_etape, est_une_etape_prompt_template
|
10 |
from pattern_adverbe_ment import adverbement, adverbement_prompt_template
|
11 |
from pattern_connecteur_cependant import connecteur, connecteur_prompt_template
|
12 |
-
|
|
|
|
|
|
|
|
|
13 |
|
14 |
# Interface Streamlit
|
15 |
st.title("Analyse du texte")
|
@@ -20,7 +24,12 @@ List_prompt = {
|
|
20 |
"< Détection du pattern 'epoque de, à l'ère de' >": epoque_prompt_template(),
|
21 |
"< Détection du pattern 'ce qui explique' >": explication_prompt_template(),
|
22 |
"< Détection des adverbes en -ment >": adverbement_prompt_template(),
|
23 |
-
"< Détection des connecteurs 'cependant' >": connecteur_prompt_template()
|
|
|
|
|
|
|
|
|
|
|
24 |
}
|
25 |
|
26 |
# Menu déroulant pour sélectionner l'analyse
|
@@ -73,6 +82,7 @@ if st.button("Lancer l'analyse"):
|
|
73 |
except Exception as e:
|
74 |
logging.error(f"Error during analysis: {e}")
|
75 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
|
|
76 |
elif option == "< Détection du pattern 'ce qui explique' >":
|
77 |
try:
|
78 |
# Analyser le texte pour les fautes de style
|
@@ -89,6 +99,7 @@ if st.button("Lancer l'analyse"):
|
|
89 |
except Exception as e:
|
90 |
logging.error(f"Error during analysis: {e}")
|
91 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
|
|
92 |
elif option == "< Détection des adverbes en -ment >":
|
93 |
try:
|
94 |
# Analyser le texte pour les fautes de style
|
@@ -105,6 +116,7 @@ if st.button("Lancer l'analyse"):
|
|
105 |
except Exception as e:
|
106 |
logging.error(f"Error during analysis: {e}")
|
107 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
|
|
108 |
elif option == "< Détection des connecteurs 'cependant' >":
|
109 |
try:
|
110 |
# Analyser le texte pour les fautes de style
|
@@ -121,5 +133,91 @@ if st.button("Lancer l'analyse"):
|
|
121 |
except Exception as e:
|
122 |
logging.error(f"Error during analysis: {e}")
|
123 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
124 |
else:
|
125 |
st.error("Veuillez entrer du texte pour lancer l'analyse.")
|
|
|
9 |
from pattern_est_une_etape import une_etape, est_une_etape_prompt_template
|
10 |
from pattern_adverbe_ment import adverbement, adverbement_prompt_template
|
11 |
from pattern_connecteur_cependant import connecteur, connecteur_prompt_template
|
12 |
+
from pattern_decision import decision, decision_prompt_template
|
13 |
+
from pattern_look import look, look_prompt_template
|
14 |
+
from pattern_il_existe import il_existe, il_existe_prompt_template
|
15 |
+
from pattern_il_faut import il_faut, il_faut_prompt_template
|
16 |
+
from pattern_vous_pouvez import vous_pouvez, vous_pouvez_prompt_template
|
17 |
|
18 |
# Interface Streamlit
|
19 |
st.title("Analyse du texte")
|
|
|
24 |
"< Détection du pattern 'epoque de, à l'ère de' >": epoque_prompt_template(),
|
25 |
"< Détection du pattern 'ce qui explique' >": explication_prompt_template(),
|
26 |
"< Détection des adverbes en -ment >": adverbement_prompt_template(),
|
27 |
+
"< Détection des connecteurs 'cependant' >": connecteur_prompt_template(),
|
28 |
+
"< Détection des decision 'éclairée...' >": decision_prompt_template(),
|
29 |
+
"< Détection du pattern 'look' >": look_prompt_template(),
|
30 |
+
"< Détection du pattern 'il existe' >": il_existe_prompt_template(),
|
31 |
+
"< Détection du pattern 'il faut' >": il_faut_prompt_template(),
|
32 |
+
"< Détection du pattern 'vous pouvez' >": vous_pouvez_prompt_template(),
|
33 |
}
|
34 |
|
35 |
# Menu déroulant pour sélectionner l'analyse
|
|
|
82 |
except Exception as e:
|
83 |
logging.error(f"Error during analysis: {e}")
|
84 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
85 |
+
|
86 |
elif option == "< Détection du pattern 'ce qui explique' >":
|
87 |
try:
|
88 |
# Analyser le texte pour les fautes de style
|
|
|
99 |
except Exception as e:
|
100 |
logging.error(f"Error during analysis: {e}")
|
101 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
102 |
+
|
103 |
elif option == "< Détection des adverbes en -ment >":
|
104 |
try:
|
105 |
# Analyser le texte pour les fautes de style
|
|
|
116 |
except Exception as e:
|
117 |
logging.error(f"Error during analysis: {e}")
|
118 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
119 |
+
|
120 |
elif option == "< Détection des connecteurs 'cependant' >":
|
121 |
try:
|
122 |
# Analyser le texte pour les fautes de style
|
|
|
133 |
except Exception as e:
|
134 |
logging.error(f"Error during analysis: {e}")
|
135 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
136 |
+
|
137 |
+
elif option == "< Détection des decision 'éclairée...' >":
|
138 |
+
try:
|
139 |
+
# Analyser le texte pour les fautes de style
|
140 |
+
result = decision(input_text)
|
141 |
+
|
142 |
+
# Afficher les résultats en JSON formaté
|
143 |
+
st.subheader("Résultats de l'analyse des decision 'éclairée...'")
|
144 |
+
st.json(result['result'], expanded=True)
|
145 |
+
|
146 |
+
# Afficher le prompt final
|
147 |
+
st.subheader("Prompt final envoyé au modèle")
|
148 |
+
st.write(result['prompt'])
|
149 |
+
|
150 |
+
except Exception as e:
|
151 |
+
logging.error(f"Error during analysis: {e}")
|
152 |
+
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
153 |
+
|
154 |
+
elif option == "< Détection du pattern 'look' >":
|
155 |
+
try:
|
156 |
+
# Analyser le texte pour les fautes de style
|
157 |
+
result = look(input_text)
|
158 |
+
|
159 |
+
# Afficher les résultats en JSON formaté
|
160 |
+
st.subheader("Résultats de l'analyse du pattern 'look'")
|
161 |
+
st.json(result['result'], expanded=True)
|
162 |
+
|
163 |
+
# Afficher le prompt final
|
164 |
+
st.subheader("Prompt final envoyé au modèle")
|
165 |
+
st.write(result['prompt'])
|
166 |
+
|
167 |
+
except Exception as e:
|
168 |
+
logging.error(f"Error during analysis: {e}")
|
169 |
+
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
170 |
+
|
171 |
+
elif option == "< Détection du pattern 'il existe' >":
|
172 |
+
try:
|
173 |
+
# Analyser le texte pour les fautes de style
|
174 |
+
result = il_existe(input_text)
|
175 |
+
|
176 |
+
# Afficher les résultats en JSON formaté
|
177 |
+
st.subheader("Résultats de l'analyse du pattern 'il existe'")
|
178 |
+
st.json(result['result'], expanded=True)
|
179 |
+
|
180 |
+
# Afficher le prompt final
|
181 |
+
st.subheader("Prompt final envoyé au modèle")
|
182 |
+
st.write(result['prompt'])
|
183 |
+
|
184 |
+
except Exception as e:
|
185 |
+
logging.error(f"Error during analysis: {e}")
|
186 |
+
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
187 |
+
|
188 |
+
elif option == "< Détection du pattern 'il faut' >":
|
189 |
+
try:
|
190 |
+
# Analyser le texte pour les fautes de style
|
191 |
+
result = il_faut(input_text)
|
192 |
+
|
193 |
+
# Afficher les résultats en JSON formaté
|
194 |
+
st.subheader("Résultats de l'analyse du pattern 'il faut'")
|
195 |
+
st.json(result['result'], expanded=True)
|
196 |
+
|
197 |
+
# Afficher le prompt final
|
198 |
+
st.subheader("Prompt final envoyé au modèle")
|
199 |
+
st.write(result['prompt'])
|
200 |
+
|
201 |
+
except Exception as e:
|
202 |
+
logging.error(f"Error during analysis: {e}")
|
203 |
+
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
204 |
+
|
205 |
+
elif option == "< Détection du pattern 'vous pouvez' >":
|
206 |
+
try:
|
207 |
+
# Analyser le texte pour les fautes de style
|
208 |
+
result = vous_pouvez(input_text)
|
209 |
+
|
210 |
+
# Afficher les résultats en JSON formaté
|
211 |
+
st.subheader("Résultats de l'analyse du pattern 'vous pouvez'")
|
212 |
+
st.json(result['result'], expanded=True)
|
213 |
+
|
214 |
+
# Afficher le prompt final
|
215 |
+
st.subheader("Prompt final envoyé au modèle")
|
216 |
+
st.write(result['prompt'])
|
217 |
+
|
218 |
+
except Exception as e:
|
219 |
+
logging.error(f"Error during analysis: {e}")
|
220 |
+
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
221 |
+
|
222 |
else:
|
223 |
st.error("Veuillez entrer du texte pour lancer l'analyse.")
|
pattern_decision.py
ADDED
@@ -0,0 +1,128 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import json
|
2 |
+
from langchain.prompts import PromptTemplate
|
3 |
+
from langchain.chains import LLMChain
|
4 |
+
from pydantic import BaseModel, Field
|
5 |
+
from typing import List, Tuple
|
6 |
+
from langchain.chat_models import ChatOpenAI
|
7 |
+
from langchain.output_parsers import PydanticOutputParser
|
8 |
+
|
9 |
+
|
10 |
+
# Modèles Pydantic pour structurer la réponse
|
11 |
+
class AlternativeSuggestion(BaseModel):
|
12 |
+
suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
|
13 |
+
suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
|
14 |
+
justification: str = Field(..., description="Justification de la suggestion.")
|
15 |
+
|
16 |
+
class PatternDetail(BaseModel):
|
17 |
+
pattern: str = Field(..., description="Mot ou expression détectée.")
|
18 |
+
indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
|
19 |
+
sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
|
20 |
+
alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation avec justification.")
|
21 |
+
|
22 |
+
def to_dict(self):
|
23 |
+
return {
|
24 |
+
"pattern": self.pattern,
|
25 |
+
"indices": self.indices,
|
26 |
+
"sentence": self.sentence,
|
27 |
+
"alternative_suggestions": {
|
28 |
+
"suggestion_1": self.alternative_suggestions.suggestion_1,
|
29 |
+
"suggestion_2": self.alternative_suggestions.suggestion_2,
|
30 |
+
"justification": self.alternative_suggestions.justification
|
31 |
+
}
|
32 |
+
}
|
33 |
+
|
34 |
+
class Summary(BaseModel):
|
35 |
+
total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
|
36 |
+
alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
|
37 |
+
occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
|
38 |
+
|
39 |
+
def to_dict(self):
|
40 |
+
return {
|
41 |
+
"total_patterns_detected": self.total_patterns_detected,
|
42 |
+
"alternative_suggestions_provided": self.alternative_suggestions_provided,
|
43 |
+
"occurrences": self.occurrences
|
44 |
+
}
|
45 |
+
|
46 |
+
class DetectionResult(BaseModel):
|
47 |
+
patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
|
48 |
+
summary: Summary = Field(..., description="Résumé de la détection.")
|
49 |
+
|
50 |
+
def to_dict(self):
|
51 |
+
return {
|
52 |
+
"patterns": [pattern.to_dict() for pattern in self.patterns],
|
53 |
+
"summary": self.summary.to_dict()
|
54 |
+
}
|
55 |
+
|
56 |
+
def decision_prompt_template():
|
57 |
+
return """
|
58 |
+
Veuillez analyser le texte suivant et identifier toutes les occurrences des expressions liées à la prise de décision comportant des adjectifs tels que "éclairée", "avisée", "judicieuse", "réfléchie", "sage", "pertinente", "optimale", "sensée", etc.
|
59 |
+
|
60 |
+
Pour chaque occurrence trouvée, veuillez :
|
61 |
+
|
62 |
+
- Citer la phrase complète où l'expression apparaît.
|
63 |
+
- Indiquer l'expression exacte utilisée dans le texte.
|
64 |
+
- Proposer deux reformulations de la phrase, en supprimant l'expression ou en la reformulant pour améliorer le style, tout en conservant le sens général.
|
65 |
+
- Assurez-vous que la phrase reformulée est grammaticalement correcte, naturelle et adaptée au contexte.
|
66 |
+
|
67 |
+
Assurez-vous également de respecter les règles suivantes :
|
68 |
+
1. Les expressions comme "crucial", "essentiel", "important", "fondamental", etc., ne doivent pas être utilisées plus d'une fois dans l'introduction.
|
69 |
+
2. Les expressions comme "Il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
|
70 |
+
3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs comme "important", "essentiel", etc.
|
71 |
+
4. "En plus" ne doit pas être utilisé seul en début de phrase.
|
72 |
+
|
73 |
+
Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
|
74 |
+
|
75 |
+
- "pattern": "mot ou expression détectée",
|
76 |
+
- "indices": [[index de début, index de fin pour chaque occurrence]],
|
77 |
+
- "sentence": "phrase où l'expression est utilisée",
|
78 |
+
- "alternative_suggestions": ["suggestion 1", "suggestion 2"],
|
79 |
+
- "justification": "justification de la suggestion"
|
80 |
+
|
81 |
+
Si aucun pattern n'est trouvé, retournez un JSON avec :
|
82 |
+
- "pattern0": "",
|
83 |
+
- "occurrences": 0,
|
84 |
+
|
85 |
+
À la fin, ajoutez un résumé avec :
|
86 |
+
- "total_patterns_detected": nombre total de patterns détectés,
|
87 |
+
- "alternative_suggestions_provided": nombre de suggestions données,
|
88 |
+
- "occurrences": nombre d'occurrences.
|
89 |
+
|
90 |
+
Voici le texte à analyser :
|
91 |
+
```{text}```
|
92 |
+
|
93 |
+
\n{format_instruction}
|
94 |
+
"""
|
95 |
+
|
96 |
+
def decision(text):
|
97 |
+
# Créer le template avec la variable text intégrée directement
|
98 |
+
prompt_template = decision_prompt_template()
|
99 |
+
|
100 |
+
output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
|
101 |
+
|
102 |
+
# Créer le prompt avec le texte intégré
|
103 |
+
gen_prompt_template = PromptTemplate(
|
104 |
+
input_variables=["text"],
|
105 |
+
template=prompt_template,
|
106 |
+
partial_variables={'format_instruction': output_parser.get_format_instructions()}
|
107 |
+
)
|
108 |
+
|
109 |
+
# Créer une instance du modèle de langage
|
110 |
+
llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
|
111 |
+
|
112 |
+
# Exécuter la chaîne avec le LLM
|
113 |
+
llm_chain = gen_prompt_template | llm | output_parser
|
114 |
+
|
115 |
+
# Appel du modèle avec le texte fourni
|
116 |
+
result_dict = llm_chain.invoke({"text": text}).to_dict()
|
117 |
+
|
118 |
+
# Parsing de la réponse JSON
|
119 |
+
json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
|
120 |
+
|
121 |
+
# Générer le prompt final
|
122 |
+
final_prompt = gen_prompt_template.format(text=text)
|
123 |
+
|
124 |
+
# Retourne les suggestions ou les erreurs de parsing
|
125 |
+
return {
|
126 |
+
"result": json_result,
|
127 |
+
"prompt": final_prompt
|
128 |
+
}
|
pattern_il_existe.py
ADDED
@@ -0,0 +1,133 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import json
|
2 |
+
from langchain.prompts import PromptTemplate
|
3 |
+
from langchain.chains import LLMChain
|
4 |
+
from pydantic import BaseModel, Field
|
5 |
+
from typing import List, Tuple
|
6 |
+
from langchain.chat_models import ChatOpenAI
|
7 |
+
from langchain.output_parsers import PydanticOutputParser
|
8 |
+
|
9 |
+
# Modèles Pydantic pour structurer la réponse
|
10 |
+
class AlternativeSuggestion(BaseModel):
|
11 |
+
suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
|
12 |
+
suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
|
13 |
+
|
14 |
+
class PatternDetail(BaseModel):
|
15 |
+
pattern: str = Field(..., description="Mot ou expression détectée.")
|
16 |
+
indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
|
17 |
+
sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
|
18 |
+
alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation.")
|
19 |
+
|
20 |
+
def to_dict(self):
|
21 |
+
return {
|
22 |
+
"pattern": self.pattern,
|
23 |
+
"indices": self.indices,
|
24 |
+
"sentence": self.sentence,
|
25 |
+
"alternative_suggestions": {
|
26 |
+
"suggestion_1": self.alternative_suggestions.suggestion_1,
|
27 |
+
"suggestion_2": self.alternative_suggestions.suggestion_2,
|
28 |
+
}
|
29 |
+
}
|
30 |
+
|
31 |
+
class Summary(BaseModel):
|
32 |
+
total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
|
33 |
+
alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
|
34 |
+
occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
|
35 |
+
|
36 |
+
def to_dict(self):
|
37 |
+
return {
|
38 |
+
"total_patterns_detected": self.total_patterns_detected,
|
39 |
+
"alternative_suggestions_provided": self.alternative_suggestions_provided,
|
40 |
+
"occurrences": self.occurrences
|
41 |
+
}
|
42 |
+
|
43 |
+
class DetectionResult(BaseModel):
|
44 |
+
patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
|
45 |
+
summary: Summary = Field(..., description="Résumé de la détection.")
|
46 |
+
|
47 |
+
def to_dict(self):
|
48 |
+
return {
|
49 |
+
"patterns": [pattern.to_dict() for pattern in self.patterns],
|
50 |
+
"summary": self.summary.to_dict()
|
51 |
+
}
|
52 |
+
|
53 |
+
# Fonction pour générer le prompt template
|
54 |
+
def il_existe_prompt_template():
|
55 |
+
return """
|
56 |
+
Analyser le texte suivant et détecter toutes les occurrences de l'expression "il existe" et ses variantes, telles que :
|
57 |
+
|
58 |
+
"il existe"
|
59 |
+
"il y a"
|
60 |
+
"on trouve"
|
61 |
+
"on peut trouver"
|
62 |
+
"il est possible de trouver"
|
63 |
+
"on découvre"
|
64 |
+
"il est possible de découvrir"
|
65 |
+
|
66 |
+
Pour chaque occurrence trouvée, veuillez :
|
67 |
+
|
68 |
+
- Citer la phrase complète où l'expression apparaît.
|
69 |
+
- Indiquer l'expression exacte utilisée dans le texte.
|
70 |
+
- Expliquer pourquoi l'expression "il existe" peut être lourde, formelle ou inutilement descriptive dans certains contextes.
|
71 |
+
- Proposer deux reformulations plus simples, fluides et naturelles pour rendre la phrase plus concise ou directe, en évitant d'utiliser "il existe" ou ses variantes.
|
72 |
+
|
73 |
+
Assurez-vous également de respecter les règles suivantes :
|
74 |
+
1. Les expressions comme "crucial", "essentiel", "important", "fondamental" ne doivent pas être utilisées plus d'une fois dans l'introduction.
|
75 |
+
2. Les expressions comme "il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
|
76 |
+
3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs tels qu'"important", "essentiel", etc.
|
77 |
+
4. "En plus" ne doit pas être utilisé seul en début de phrase.
|
78 |
+
|
79 |
+
Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
|
80 |
+
|
81 |
+
- "pattern": "mot ou expression détectée",
|
82 |
+
- "indices": [[index de début, index de fin pour chaque occurrence]],
|
83 |
+
- "sentence": "phrase où l'expression est utilisée",
|
84 |
+
- "alternative_suggestions": ["suggestion 1", "suggestion 2"]
|
85 |
+
|
86 |
+
Si aucun pattern n'est trouvé, retournez un JSON avec :
|
87 |
+
- "pattern0": "",
|
88 |
+
- "occurrences": 0,
|
89 |
+
|
90 |
+
À la fin, ajoutez un résumé avec :
|
91 |
+
- "total_patterns_detected": nombre total de patterns détectés,
|
92 |
+
- "alternative_suggestions_provided": nombre de suggestions données,
|
93 |
+
- "occurrences": nombre d'occurrences.
|
94 |
+
|
95 |
+
Voici le texte à analyser :
|
96 |
+
```{text}```
|
97 |
+
|
98 |
+
\n{format_instruction}
|
99 |
+
"""
|
100 |
+
|
101 |
+
def il_existe(text):
|
102 |
+
# Créer le template avec la variable text intégrée directement
|
103 |
+
prompt_template = il_existe_prompt_template()
|
104 |
+
|
105 |
+
output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
|
106 |
+
|
107 |
+
# Créer le prompt avec le texte intégré
|
108 |
+
gen_prompt_template = PromptTemplate(
|
109 |
+
input_variables=["text"],
|
110 |
+
template=prompt_template,
|
111 |
+
partial_variables={'format_instruction': output_parser.get_format_instructions()}
|
112 |
+
)
|
113 |
+
|
114 |
+
# Créer une instance du modèle de langage
|
115 |
+
llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
|
116 |
+
|
117 |
+
# Exécuter la chaîne avec le LLM
|
118 |
+
llm_chain = gen_prompt_template | llm | output_parser
|
119 |
+
|
120 |
+
# Appel du modèle avec le texte fourni
|
121 |
+
result_dict = llm_chain.invoke({"text": text}).to_dict()
|
122 |
+
|
123 |
+
# Parsing de la réponse JSON
|
124 |
+
json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
|
125 |
+
|
126 |
+
# Générer le prompt final
|
127 |
+
final_prompt = gen_prompt_template.format(text=text)
|
128 |
+
|
129 |
+
# Retourne les suggestions ou les erreurs de parsing
|
130 |
+
return {
|
131 |
+
"result": json_result,
|
132 |
+
"prompt": final_prompt
|
133 |
+
}
|
pattern_il_faut.py
ADDED
@@ -0,0 +1,129 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import json
|
2 |
+
from langchain.prompts import PromptTemplate
|
3 |
+
from langchain.chains import LLMChain
|
4 |
+
from pydantic import BaseModel, Field
|
5 |
+
from typing import List, Tuple
|
6 |
+
from langchain.chat_models import ChatOpenAI
|
7 |
+
from langchain.output_parsers import PydanticOutputParser
|
8 |
+
|
9 |
+
|
10 |
+
# Modèles Pydantic pour structurer la réponse
|
11 |
+
class AlternativeSuggestion(BaseModel):
|
12 |
+
suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
|
13 |
+
suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
|
14 |
+
justification: str = Field(..., description="Justification de la suggestion.")
|
15 |
+
|
16 |
+
class PatternDetail(BaseModel):
|
17 |
+
pattern: str = Field(..., description="Mot ou expression détectée.")
|
18 |
+
indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
|
19 |
+
sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
|
20 |
+
alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation avec justification.")
|
21 |
+
|
22 |
+
def to_dict(self):
|
23 |
+
return {
|
24 |
+
"pattern": self.pattern,
|
25 |
+
"indices": self.indices,
|
26 |
+
"sentence": self.sentence,
|
27 |
+
"alternative_suggestions": {
|
28 |
+
"suggestion_1": self.alternative_suggestions.suggestion_1,
|
29 |
+
"suggestion_2": self.alternative_suggestions.suggestion_2,
|
30 |
+
"justification": self.alternative_suggestions.justification
|
31 |
+
}
|
32 |
+
}
|
33 |
+
|
34 |
+
class Summary(BaseModel):
|
35 |
+
total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
|
36 |
+
alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
|
37 |
+
occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
|
38 |
+
|
39 |
+
def to_dict(self):
|
40 |
+
return {
|
41 |
+
"total_patterns_detected": self.total_patterns_detected,
|
42 |
+
"alternative_suggestions_provided": self.alternative_suggestions_provided,
|
43 |
+
"occurrences": self.occurrences
|
44 |
+
}
|
45 |
+
|
46 |
+
class DetectionResult(BaseModel):
|
47 |
+
patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
|
48 |
+
summary: Summary = Field(..., description="Résumé de la détection.")
|
49 |
+
|
50 |
+
def to_dict(self):
|
51 |
+
return {
|
52 |
+
"patterns": [pattern.to_dict() for pattern in self.patterns],
|
53 |
+
"summary": self.summary.to_dict()
|
54 |
+
}
|
55 |
+
|
56 |
+
def il_faut_prompt_template():
|
57 |
+
return """
|
58 |
+
Analyse le texte suivant et détecte toutes les occurrences de l'expression "il faut".
|
59 |
+
|
60 |
+
Pour chaque occurrence trouvée, veuillez :
|
61 |
+
|
62 |
+
- Citer la phrase complète où l'expression apparaît.
|
63 |
+
- Indiquer l'expression exacte utilisée dans le texte.
|
64 |
+
- Expliquer pourquoi l'expression "il faut" peut paraître trop directive ou informelle dans un contexte formel ou professionnel.
|
65 |
+
- Proposer deux reformulations de la phrase sans utiliser d'expressions ou de mots qui soulignent l'importance, comme "il est nécessaire de", "il est important de", ou "il convient de".
|
66 |
+
- Utilisez des formulations à l'impératif pour rendre la phrase plus directe et fluide.
|
67 |
+
- Assurez-vous que la phrase reformulée est fluide, naturelle, et préserve le sens original.
|
68 |
+
|
69 |
+
Assurez-vous également de respecter les règles suivantes :
|
70 |
+
1. Les expressions comme "crucial", "essentiel", "important", "fondamental", etc., ne doivent pas être utilisées plus d'une fois dans l'introduction.
|
71 |
+
2. Les expressions comme "Il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
|
72 |
+
3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs comme "important", "essentiel", etc.
|
73 |
+
4. "En plus" ne doit pas être utilisé seul en début de phrase.
|
74 |
+
|
75 |
+
Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
|
76 |
+
|
77 |
+
- "pattern": "mot ou expression détectée",
|
78 |
+
- "indices": [[index de début, index de fin pour chaque occurrence]],
|
79 |
+
- "sentence": "phrase où l'expression est utilisée",
|
80 |
+
- "alternative_suggestions": ["suggestion 1", "suggestion 2"]
|
81 |
+
|
82 |
+
Si aucun pattern n'est trouvé, retournez un JSON avec :
|
83 |
+
- "pattern0": "",
|
84 |
+
- "occurrences": 0,
|
85 |
+
|
86 |
+
À la fin, ajoutez un résumé avec :
|
87 |
+
- "total_patterns_detected": nombre total de patterns détectés,
|
88 |
+
- "alternative_suggestions_provided": nombre de suggestions données,
|
89 |
+
- "occurrences": nombre d'occurrences.
|
90 |
+
|
91 |
+
Voici le texte à analyser :
|
92 |
+
```{text}```
|
93 |
+
|
94 |
+
\n{format_instruction}
|
95 |
+
"""
|
96 |
+
|
97 |
+
def il_faut(text):
|
98 |
+
# Créer le template avec la variable text intégrée directement
|
99 |
+
prompt_template = il_faut_prompt_template()
|
100 |
+
|
101 |
+
output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
|
102 |
+
|
103 |
+
# Créer le prompt avec le texte intégré
|
104 |
+
gen_prompt_template = PromptTemplate(
|
105 |
+
input_variables=["text"],
|
106 |
+
template=prompt_template,
|
107 |
+
partial_variables={'format_instruction': output_parser.get_format_instructions()}
|
108 |
+
)
|
109 |
+
|
110 |
+
# Créer une instance du modèle de langage
|
111 |
+
llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
|
112 |
+
|
113 |
+
# Exécuter la chaîne avec le LLM
|
114 |
+
llm_chain = gen_prompt_template | llm | output_parser
|
115 |
+
|
116 |
+
# Appel du modèle avec le texte fourni
|
117 |
+
result_dict = llm_chain.invoke({"text": text}).to_dict()
|
118 |
+
|
119 |
+
# Parsing de la réponse JSON
|
120 |
+
json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
|
121 |
+
|
122 |
+
# Générer le prompt final
|
123 |
+
final_prompt = gen_prompt_template.format(text=text)
|
124 |
+
|
125 |
+
# Retourne les suggestions ou les erreurs de parsing
|
126 |
+
return {
|
127 |
+
"result": json_result,
|
128 |
+
"prompt": final_prompt
|
129 |
+
}
|
pattern_look.py
ADDED
@@ -0,0 +1,128 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import json
|
2 |
+
from langchain.prompts import PromptTemplate
|
3 |
+
from langchain.chains import LLMChain
|
4 |
+
from pydantic import BaseModel, Field
|
5 |
+
from typing import List, Tuple
|
6 |
+
from langchain.chat_models import ChatOpenAI
|
7 |
+
from langchain.output_parsers import PydanticOutputParser
|
8 |
+
|
9 |
+
|
10 |
+
# Modèles Pydantic pour structurer la réponse
|
11 |
+
class AlternativeSuggestion(BaseModel):
|
12 |
+
suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
|
13 |
+
suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
|
14 |
+
justification: str = Field(..., description="Justification de la suggestion.")
|
15 |
+
|
16 |
+
class PatternDetail(BaseModel):
|
17 |
+
pattern: str = Field(..., description="Mot ou expression détectée.")
|
18 |
+
indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
|
19 |
+
sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
|
20 |
+
alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation avec justification.")
|
21 |
+
|
22 |
+
def to_dict(self):
|
23 |
+
return {
|
24 |
+
"pattern": self.pattern,
|
25 |
+
"indices": self.indices,
|
26 |
+
"sentence": self.sentence,
|
27 |
+
"alternative_suggestions": {
|
28 |
+
"suggestion_1": self.alternative_suggestions.suggestion_1,
|
29 |
+
"suggestion_2": self.alternative_suggestions.suggestion_2,
|
30 |
+
"justification": self.alternative_suggestions.justification
|
31 |
+
}
|
32 |
+
}
|
33 |
+
|
34 |
+
class Summary(BaseModel):
|
35 |
+
total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
|
36 |
+
alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
|
37 |
+
occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
|
38 |
+
|
39 |
+
def to_dict(self):
|
40 |
+
return {
|
41 |
+
"total_patterns_detected": self.total_patterns_detected,
|
42 |
+
"alternative_suggestions_provided": self.alternative_suggestions_provided,
|
43 |
+
"occurrences": self.occurrences
|
44 |
+
}
|
45 |
+
|
46 |
+
class DetectionResult(BaseModel):
|
47 |
+
patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
|
48 |
+
summary: Summary = Field(..., description="Résumé de la détection.")
|
49 |
+
|
50 |
+
def to_dict(self):
|
51 |
+
return {
|
52 |
+
"patterns": [pattern.to_dict() for pattern in self.patterns],
|
53 |
+
"summary": self.summary.to_dict()
|
54 |
+
}
|
55 |
+
|
56 |
+
def look_prompt_template():
|
57 |
+
return """
|
58 |
+
Analyse le texte suivant et détecte strictement toutes les occurrences du mot "look" utilisées dans le contexte de la décoration et de l'aménagement des espaces de vie ou de travail.
|
59 |
+
|
60 |
+
Pour chaque occurrence trouvée, veuillez :
|
61 |
+
|
62 |
+
- Citer la phrase complète où l'expression apparaît.
|
63 |
+
- Indiquer l'expression exacte utilisée dans le texte.
|
64 |
+
- Expliquer pourquoi l'utilisation de "look" est inappropriée dans ce contexte décoratif en français, en précisant qu'il s'agit d'un anglicisme.
|
65 |
+
- Proposer deux reformulations de la phrase en utilisant un terme ou une expression plus correcte en français, comme "style", "allure", "ambiance", "aspect", ou "touche", en tenant compte du contexte de la décoration.
|
66 |
+
- Assurez-vous que la phrase reformulée soit fluide, naturelle et préserve le sens original.
|
67 |
+
|
68 |
+
Assurez-vous également de respecter les règles suivantes :
|
69 |
+
1. Les expressions comme "crucial", "essentiel", "important", "fondamental", etc., ne doivent pas être utilisées plus d'une fois dans l'introduction.
|
70 |
+
2. Les expressions comme "Il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
|
71 |
+
3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs comme "important", "essentiel", etc.
|
72 |
+
4. "En plus" ne doit pas être utilisé seul en début de phrase.
|
73 |
+
|
74 |
+
Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
|
75 |
+
|
76 |
+
- "pattern": "mot ou expression détectée",
|
77 |
+
- "indices": [[index de début, index de fin pour chaque occurrence]],
|
78 |
+
- "sentence": "phrase où l'expression est utilisée",
|
79 |
+
- "alternative_suggestions": ["suggestion 1", "suggestion 2"]
|
80 |
+
|
81 |
+
Si aucun pattern n'est trouvé, retournez un JSON avec :
|
82 |
+
- "pattern0": "",
|
83 |
+
- "occurrences": 0,
|
84 |
+
|
85 |
+
À la fin, ajoutez un résumé avec :
|
86 |
+
- "total_patterns_detected": nombre total de patterns détectés,
|
87 |
+
- "alternative_suggestions_provided": nombre de suggestions données,
|
88 |
+
- "occurrences": nombre d'occurrences.
|
89 |
+
|
90 |
+
Voici le texte à analyser :
|
91 |
+
```{text}```
|
92 |
+
|
93 |
+
\n{format_instruction}
|
94 |
+
"""
|
95 |
+
|
96 |
+
def look(text):
|
97 |
+
# Créer le template avec la variable text intégrée directement
|
98 |
+
prompt_template = look_prompt_template()
|
99 |
+
|
100 |
+
output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
|
101 |
+
|
102 |
+
# Créer le prompt avec le texte intégré
|
103 |
+
gen_prompt_template = PromptTemplate(
|
104 |
+
input_variables=["text"],
|
105 |
+
template=prompt_template,
|
106 |
+
partial_variables={'format_instruction': output_parser.get_format_instructions()}
|
107 |
+
)
|
108 |
+
|
109 |
+
# Créer une instance du modèle de langage
|
110 |
+
llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
|
111 |
+
|
112 |
+
# Exécuter la chaîne avec le LLM
|
113 |
+
llm_chain = gen_prompt_template | llm | output_parser
|
114 |
+
|
115 |
+
# Appel du modèle avec le texte fourni
|
116 |
+
result_dict = llm_chain.invoke({"text": text}).to_dict()
|
117 |
+
|
118 |
+
# Parsing de la réponse JSON
|
119 |
+
json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
|
120 |
+
|
121 |
+
# Générer le prompt final
|
122 |
+
final_prompt = gen_prompt_template.format(text=text)
|
123 |
+
|
124 |
+
# Retourne les suggestions ou les erreurs de parsing
|
125 |
+
return {
|
126 |
+
"result": json_result,
|
127 |
+
"prompt": final_prompt
|
128 |
+
}
|
pattern_vous_pouvez.py
ADDED
@@ -0,0 +1,129 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import json
|
2 |
+
from langchain.prompts import PromptTemplate
|
3 |
+
from langchain.chains import LLMChain
|
4 |
+
from pydantic import BaseModel, Field
|
5 |
+
from typing import List, Tuple
|
6 |
+
from langchain.chat_models import ChatOpenAI
|
7 |
+
from langchain.output_parsers import PydanticOutputParser
|
8 |
+
|
9 |
+
|
10 |
+
# Modèles Pydantic pour structurer la réponse
|
11 |
+
class AlternativeSuggestion(BaseModel):
|
12 |
+
suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
|
13 |
+
suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
|
14 |
+
justification: str = Field(..., description="Justification de la suggestion.")
|
15 |
+
|
16 |
+
class PatternDetail(BaseModel):
|
17 |
+
pattern: str = Field(..., description="Mot ou expression détectée.")
|
18 |
+
indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
|
19 |
+
sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
|
20 |
+
alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation avec justification.")
|
21 |
+
|
22 |
+
def to_dict(self):
|
23 |
+
return {
|
24 |
+
"pattern": self.pattern,
|
25 |
+
"indices": self.indices,
|
26 |
+
"sentence": self.sentence,
|
27 |
+
"alternative_suggestions": {
|
28 |
+
"suggestion_1": self.alternative_suggestions.suggestion_1,
|
29 |
+
"suggestion_2": self.alternative_suggestions.suggestion_2,
|
30 |
+
"justification": self.alternative_suggestions.justification
|
31 |
+
}
|
32 |
+
}
|
33 |
+
|
34 |
+
class Summary(BaseModel):
|
35 |
+
total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
|
36 |
+
alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
|
37 |
+
occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
|
38 |
+
|
39 |
+
def to_dict(self):
|
40 |
+
return {
|
41 |
+
"total_patterns_detected": self.total_patterns_detected,
|
42 |
+
"alternative_suggestions_provided": self.alternative_suggestions_provided,
|
43 |
+
"occurrences": self.occurrences
|
44 |
+
}
|
45 |
+
|
46 |
+
class DetectionResult(BaseModel):
|
47 |
+
patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
|
48 |
+
summary: Summary = Field(..., description="Résumé de la détection.")
|
49 |
+
|
50 |
+
def to_dict(self):
|
51 |
+
return {
|
52 |
+
"patterns": [pattern.to_dict() for pattern in self.patterns],
|
53 |
+
"summary": self.summary.to_dict()
|
54 |
+
}
|
55 |
+
|
56 |
+
def vous_pouvez_prompt_template():
|
57 |
+
return """
|
58 |
+
Analyser le texte ci-dessous pour détecter les expressions "vous pouvez", "vous devez", "il vous faut",
|
59 |
+
"vous avez à", "il est nécessaire que vous", "vous avez la possibilité de", "vous êtes prié de" et autres formules similaires.
|
60 |
+
|
61 |
+
Pour chaque occurrence trouvée, veuillez :
|
62 |
+
|
63 |
+
- Citer la phrase complète où l'expression apparaît.
|
64 |
+
- Indiquer l'expression exacte utilisée dans le texte.
|
65 |
+
- Expliquer pourquoi ces expressions peuvent alourdir le texte ou donner un ton trop directif ou permissif.
|
66 |
+
- Proposer deux reformulations de la phrase plus fluides, en évitant d'insister sur la permission ou l'autorité, en privilégiant des tournures neutres ou à l'impératif.
|
67 |
+
- Assurez-vous que la phrase reformulée est fluide, naturelle, et conserve le sens original sans insister sur l'importance de l'action.
|
68 |
+
|
69 |
+
Assurez-vous également de respecter les règles suivantes :
|
70 |
+
1. Les expressions comme "crucial", "essentiel", "important", "fondamental" ne doivent pas être utilisées plus d'une fois dans l'introduction.
|
71 |
+
2. Les expressions comme "il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
|
72 |
+
3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs tels qu'"important", "essentiel", etc.
|
73 |
+
4. "En plus" ne doit pas être utilisé seul en début de phrase.
|
74 |
+
|
75 |
+
Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
|
76 |
+
|
77 |
+
- "pattern": "mot ou expression détectée",
|
78 |
+
- "indices": [[index de début, index de fin pour chaque occurrence]],
|
79 |
+
- "sentence": "phrase où l'expression est utilisée",
|
80 |
+
- "alternative_suggestions": ["suggestion 1", "suggestion 2"]
|
81 |
+
|
82 |
+
Si aucun pattern n'est trouvé, retournez un JSON avec :
|
83 |
+
- "pattern0": "",
|
84 |
+
- "occurrences": 0,
|
85 |
+
|
86 |
+
À la fin, ajoutez un résumé avec :
|
87 |
+
- "total_patterns_detected": nombre total de patterns détectés,
|
88 |
+
- "alternative_suggestions_provided": nombre de suggestions données,
|
89 |
+
- "occurrences": nombre d'occurrences.
|
90 |
+
|
91 |
+
Voici le texte à analyser :
|
92 |
+
```{text}```
|
93 |
+
|
94 |
+
\n{format_instruction}
|
95 |
+
"""
|
96 |
+
|
97 |
+
def vous_pouvez(text):
|
98 |
+
# Créer le template avec la variable text intégrée directement
|
99 |
+
prompt_template = vous_pouvez_prompt_template()
|
100 |
+
|
101 |
+
output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
|
102 |
+
|
103 |
+
# Créer le prompt avec le texte intégré
|
104 |
+
gen_prompt_template = PromptTemplate(
|
105 |
+
input_variables=["text"],
|
106 |
+
template=prompt_template,
|
107 |
+
partial_variables={'format_instruction': output_parser.get_format_instructions()}
|
108 |
+
)
|
109 |
+
|
110 |
+
# Créer une instance du modèle de langage
|
111 |
+
llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
|
112 |
+
|
113 |
+
# Exécuter la chaîne avec le LLM
|
114 |
+
llm_chain = gen_prompt_template | llm | output_parser
|
115 |
+
|
116 |
+
# Appel du modèle avec le texte fourni
|
117 |
+
result_dict = llm_chain.invoke({"text": text}).to_dict()
|
118 |
+
|
119 |
+
# Parsing de la réponse JSON
|
120 |
+
json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
|
121 |
+
|
122 |
+
# Générer le prompt final
|
123 |
+
final_prompt = gen_prompt_template.format(text=text)
|
124 |
+
|
125 |
+
# Retourne les suggestions ou les erreurs de parsing
|
126 |
+
return {
|
127 |
+
"result": json_result,
|
128 |
+
"prompt": final_prompt
|
129 |
+
}
|