FerdinandPyCode commited on
Commit
0c53943
·
1 Parent(s): cb7be16

adding five other patherns

Browse files
Files changed (6) hide show
  1. app.py +100 -2
  2. pattern_decision.py +128 -0
  3. pattern_il_existe.py +133 -0
  4. pattern_il_faut.py +129 -0
  5. pattern_look.py +128 -0
  6. pattern_vous_pouvez.py +129 -0
app.py CHANGED
@@ -9,7 +9,11 @@ from pattern_epoque import epoque, epoque_prompt_template
9
  from pattern_est_une_etape import une_etape, est_une_etape_prompt_template
10
  from pattern_adverbe_ment import adverbement, adverbement_prompt_template
11
  from pattern_connecteur_cependant import connecteur, connecteur_prompt_template
12
-
 
 
 
 
13
 
14
  # Interface Streamlit
15
  st.title("Analyse du texte")
@@ -20,7 +24,12 @@ List_prompt = {
20
  "< Détection du pattern 'epoque de, à l'ère de' >": epoque_prompt_template(),
21
  "< Détection du pattern 'ce qui explique' >": explication_prompt_template(),
22
  "< Détection des adverbes en -ment >": adverbement_prompt_template(),
23
- "< Détection des connecteurs 'cependant' >": connecteur_prompt_template()
 
 
 
 
 
24
  }
25
 
26
  # Menu déroulant pour sélectionner l'analyse
@@ -73,6 +82,7 @@ if st.button("Lancer l'analyse"):
73
  except Exception as e:
74
  logging.error(f"Error during analysis: {e}")
75
  st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
 
76
  elif option == "< Détection du pattern 'ce qui explique' >":
77
  try:
78
  # Analyser le texte pour les fautes de style
@@ -89,6 +99,7 @@ if st.button("Lancer l'analyse"):
89
  except Exception as e:
90
  logging.error(f"Error during analysis: {e}")
91
  st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
 
92
  elif option == "< Détection des adverbes en -ment >":
93
  try:
94
  # Analyser le texte pour les fautes de style
@@ -105,6 +116,7 @@ if st.button("Lancer l'analyse"):
105
  except Exception as e:
106
  logging.error(f"Error during analysis: {e}")
107
  st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
 
108
  elif option == "< Détection des connecteurs 'cependant' >":
109
  try:
110
  # Analyser le texte pour les fautes de style
@@ -121,5 +133,91 @@ if st.button("Lancer l'analyse"):
121
  except Exception as e:
122
  logging.error(f"Error during analysis: {e}")
123
  st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
124
  else:
125
  st.error("Veuillez entrer du texte pour lancer l'analyse.")
 
9
  from pattern_est_une_etape import une_etape, est_une_etape_prompt_template
10
  from pattern_adverbe_ment import adverbement, adverbement_prompt_template
11
  from pattern_connecteur_cependant import connecteur, connecteur_prompt_template
12
+ from pattern_decision import decision, decision_prompt_template
13
+ from pattern_look import look, look_prompt_template
14
+ from pattern_il_existe import il_existe, il_existe_prompt_template
15
+ from pattern_il_faut import il_faut, il_faut_prompt_template
16
+ from pattern_vous_pouvez import vous_pouvez, vous_pouvez_prompt_template
17
 
18
  # Interface Streamlit
19
  st.title("Analyse du texte")
 
24
  "< Détection du pattern 'epoque de, à l'ère de' >": epoque_prompt_template(),
25
  "< Détection du pattern 'ce qui explique' >": explication_prompt_template(),
26
  "< Détection des adverbes en -ment >": adverbement_prompt_template(),
27
+ "< Détection des connecteurs 'cependant' >": connecteur_prompt_template(),
28
+ "< Détection des decision 'éclairée...' >": decision_prompt_template(),
29
+ "< Détection du pattern 'look' >": look_prompt_template(),
30
+ "< Détection du pattern 'il existe' >": il_existe_prompt_template(),
31
+ "< Détection du pattern 'il faut' >": il_faut_prompt_template(),
32
+ "< Détection du pattern 'vous pouvez' >": vous_pouvez_prompt_template(),
33
  }
34
 
35
  # Menu déroulant pour sélectionner l'analyse
 
82
  except Exception as e:
83
  logging.error(f"Error during analysis: {e}")
84
  st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
85
+
86
  elif option == "< Détection du pattern 'ce qui explique' >":
87
  try:
88
  # Analyser le texte pour les fautes de style
 
99
  except Exception as e:
100
  logging.error(f"Error during analysis: {e}")
101
  st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
102
+
103
  elif option == "< Détection des adverbes en -ment >":
104
  try:
105
  # Analyser le texte pour les fautes de style
 
116
  except Exception as e:
117
  logging.error(f"Error during analysis: {e}")
118
  st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
119
+
120
  elif option == "< Détection des connecteurs 'cependant' >":
121
  try:
122
  # Analyser le texte pour les fautes de style
 
133
  except Exception as e:
134
  logging.error(f"Error during analysis: {e}")
135
  st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
136
+
137
+ elif option == "< Détection des decision 'éclairée...' >":
138
+ try:
139
+ # Analyser le texte pour les fautes de style
140
+ result = decision(input_text)
141
+
142
+ # Afficher les résultats en JSON formaté
143
+ st.subheader("Résultats de l'analyse des decision 'éclairée...'")
144
+ st.json(result['result'], expanded=True)
145
+
146
+ # Afficher le prompt final
147
+ st.subheader("Prompt final envoyé au modèle")
148
+ st.write(result['prompt'])
149
+
150
+ except Exception as e:
151
+ logging.error(f"Error during analysis: {e}")
152
+ st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
153
+
154
+ elif option == "< Détection du pattern 'look' >":
155
+ try:
156
+ # Analyser le texte pour les fautes de style
157
+ result = look(input_text)
158
+
159
+ # Afficher les résultats en JSON formaté
160
+ st.subheader("Résultats de l'analyse du pattern 'look'")
161
+ st.json(result['result'], expanded=True)
162
+
163
+ # Afficher le prompt final
164
+ st.subheader("Prompt final envoyé au modèle")
165
+ st.write(result['prompt'])
166
+
167
+ except Exception as e:
168
+ logging.error(f"Error during analysis: {e}")
169
+ st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
170
+
171
+ elif option == "< Détection du pattern 'il existe' >":
172
+ try:
173
+ # Analyser le texte pour les fautes de style
174
+ result = il_existe(input_text)
175
+
176
+ # Afficher les résultats en JSON formaté
177
+ st.subheader("Résultats de l'analyse du pattern 'il existe'")
178
+ st.json(result['result'], expanded=True)
179
+
180
+ # Afficher le prompt final
181
+ st.subheader("Prompt final envoyé au modèle")
182
+ st.write(result['prompt'])
183
+
184
+ except Exception as e:
185
+ logging.error(f"Error during analysis: {e}")
186
+ st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
187
+
188
+ elif option == "< Détection du pattern 'il faut' >":
189
+ try:
190
+ # Analyser le texte pour les fautes de style
191
+ result = il_faut(input_text)
192
+
193
+ # Afficher les résultats en JSON formaté
194
+ st.subheader("Résultats de l'analyse du pattern 'il faut'")
195
+ st.json(result['result'], expanded=True)
196
+
197
+ # Afficher le prompt final
198
+ st.subheader("Prompt final envoyé au modèle")
199
+ st.write(result['prompt'])
200
+
201
+ except Exception as e:
202
+ logging.error(f"Error during analysis: {e}")
203
+ st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
204
+
205
+ elif option == "< Détection du pattern 'vous pouvez' >":
206
+ try:
207
+ # Analyser le texte pour les fautes de style
208
+ result = vous_pouvez(input_text)
209
+
210
+ # Afficher les résultats en JSON formaté
211
+ st.subheader("Résultats de l'analyse du pattern 'vous pouvez'")
212
+ st.json(result['result'], expanded=True)
213
+
214
+ # Afficher le prompt final
215
+ st.subheader("Prompt final envoyé au modèle")
216
+ st.write(result['prompt'])
217
+
218
+ except Exception as e:
219
+ logging.error(f"Error during analysis: {e}")
220
+ st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
221
+
222
  else:
223
  st.error("Veuillez entrer du texte pour lancer l'analyse.")
pattern_decision.py ADDED
@@ -0,0 +1,128 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import json
2
+ from langchain.prompts import PromptTemplate
3
+ from langchain.chains import LLMChain
4
+ from pydantic import BaseModel, Field
5
+ from typing import List, Tuple
6
+ from langchain.chat_models import ChatOpenAI
7
+ from langchain.output_parsers import PydanticOutputParser
8
+
9
+
10
+ # Modèles Pydantic pour structurer la réponse
11
+ class AlternativeSuggestion(BaseModel):
12
+ suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
13
+ suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
14
+ justification: str = Field(..., description="Justification de la suggestion.")
15
+
16
+ class PatternDetail(BaseModel):
17
+ pattern: str = Field(..., description="Mot ou expression détectée.")
18
+ indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
19
+ sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
20
+ alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation avec justification.")
21
+
22
+ def to_dict(self):
23
+ return {
24
+ "pattern": self.pattern,
25
+ "indices": self.indices,
26
+ "sentence": self.sentence,
27
+ "alternative_suggestions": {
28
+ "suggestion_1": self.alternative_suggestions.suggestion_1,
29
+ "suggestion_2": self.alternative_suggestions.suggestion_2,
30
+ "justification": self.alternative_suggestions.justification
31
+ }
32
+ }
33
+
34
+ class Summary(BaseModel):
35
+ total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
36
+ alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
37
+ occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
38
+
39
+ def to_dict(self):
40
+ return {
41
+ "total_patterns_detected": self.total_patterns_detected,
42
+ "alternative_suggestions_provided": self.alternative_suggestions_provided,
43
+ "occurrences": self.occurrences
44
+ }
45
+
46
+ class DetectionResult(BaseModel):
47
+ patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
48
+ summary: Summary = Field(..., description="Résumé de la détection.")
49
+
50
+ def to_dict(self):
51
+ return {
52
+ "patterns": [pattern.to_dict() for pattern in self.patterns],
53
+ "summary": self.summary.to_dict()
54
+ }
55
+
56
+ def decision_prompt_template():
57
+ return """
58
+ Veuillez analyser le texte suivant et identifier toutes les occurrences des expressions liées à la prise de décision comportant des adjectifs tels que "éclairée", "avisée", "judicieuse", "réfléchie", "sage", "pertinente", "optimale", "sensée", etc.
59
+
60
+ Pour chaque occurrence trouvée, veuillez :
61
+
62
+ - Citer la phrase complète où l'expression apparaît.
63
+ - Indiquer l'expression exacte utilisée dans le texte.
64
+ - Proposer deux reformulations de la phrase, en supprimant l'expression ou en la reformulant pour améliorer le style, tout en conservant le sens général.
65
+ - Assurez-vous que la phrase reformulée est grammaticalement correcte, naturelle et adaptée au contexte.
66
+
67
+ Assurez-vous également de respecter les règles suivantes :
68
+ 1. Les expressions comme "crucial", "essentiel", "important", "fondamental", etc., ne doivent pas être utilisées plus d'une fois dans l'introduction.
69
+ 2. Les expressions comme "Il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
70
+ 3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs comme "important", "essentiel", etc.
71
+ 4. "En plus" ne doit pas être utilisé seul en début de phrase.
72
+
73
+ Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
74
+
75
+ - "pattern": "mot ou expression détectée",
76
+ - "indices": [[index de début, index de fin pour chaque occurrence]],
77
+ - "sentence": "phrase où l'expression est utilisée",
78
+ - "alternative_suggestions": ["suggestion 1", "suggestion 2"],
79
+ - "justification": "justification de la suggestion"
80
+
81
+ Si aucun pattern n'est trouvé, retournez un JSON avec :
82
+ - "pattern0": "",
83
+ - "occurrences": 0,
84
+
85
+ À la fin, ajoutez un résumé avec :
86
+ - "total_patterns_detected": nombre total de patterns détectés,
87
+ - "alternative_suggestions_provided": nombre de suggestions données,
88
+ - "occurrences": nombre d'occurrences.
89
+
90
+ Voici le texte à analyser :
91
+ ```{text}```
92
+
93
+ \n{format_instruction}
94
+ """
95
+
96
+ def decision(text):
97
+ # Créer le template avec la variable text intégrée directement
98
+ prompt_template = decision_prompt_template()
99
+
100
+ output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
101
+
102
+ # Créer le prompt avec le texte intégré
103
+ gen_prompt_template = PromptTemplate(
104
+ input_variables=["text"],
105
+ template=prompt_template,
106
+ partial_variables={'format_instruction': output_parser.get_format_instructions()}
107
+ )
108
+
109
+ # Créer une instance du modèle de langage
110
+ llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
111
+
112
+ # Exécuter la chaîne avec le LLM
113
+ llm_chain = gen_prompt_template | llm | output_parser
114
+
115
+ # Appel du modèle avec le texte fourni
116
+ result_dict = llm_chain.invoke({"text": text}).to_dict()
117
+
118
+ # Parsing de la réponse JSON
119
+ json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
120
+
121
+ # Générer le prompt final
122
+ final_prompt = gen_prompt_template.format(text=text)
123
+
124
+ # Retourne les suggestions ou les erreurs de parsing
125
+ return {
126
+ "result": json_result,
127
+ "prompt": final_prompt
128
+ }
pattern_il_existe.py ADDED
@@ -0,0 +1,133 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import json
2
+ from langchain.prompts import PromptTemplate
3
+ from langchain.chains import LLMChain
4
+ from pydantic import BaseModel, Field
5
+ from typing import List, Tuple
6
+ from langchain.chat_models import ChatOpenAI
7
+ from langchain.output_parsers import PydanticOutputParser
8
+
9
+ # Modèles Pydantic pour structurer la réponse
10
+ class AlternativeSuggestion(BaseModel):
11
+ suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
12
+ suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
13
+
14
+ class PatternDetail(BaseModel):
15
+ pattern: str = Field(..., description="Mot ou expression détectée.")
16
+ indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
17
+ sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
18
+ alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation.")
19
+
20
+ def to_dict(self):
21
+ return {
22
+ "pattern": self.pattern,
23
+ "indices": self.indices,
24
+ "sentence": self.sentence,
25
+ "alternative_suggestions": {
26
+ "suggestion_1": self.alternative_suggestions.suggestion_1,
27
+ "suggestion_2": self.alternative_suggestions.suggestion_2,
28
+ }
29
+ }
30
+
31
+ class Summary(BaseModel):
32
+ total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
33
+ alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
34
+ occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
35
+
36
+ def to_dict(self):
37
+ return {
38
+ "total_patterns_detected": self.total_patterns_detected,
39
+ "alternative_suggestions_provided": self.alternative_suggestions_provided,
40
+ "occurrences": self.occurrences
41
+ }
42
+
43
+ class DetectionResult(BaseModel):
44
+ patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
45
+ summary: Summary = Field(..., description="Résumé de la détection.")
46
+
47
+ def to_dict(self):
48
+ return {
49
+ "patterns": [pattern.to_dict() for pattern in self.patterns],
50
+ "summary": self.summary.to_dict()
51
+ }
52
+
53
+ # Fonction pour générer le prompt template
54
+ def il_existe_prompt_template():
55
+ return """
56
+ Analyser le texte suivant et détecter toutes les occurrences de l'expression "il existe" et ses variantes, telles que :
57
+
58
+ "il existe"
59
+ "il y a"
60
+ "on trouve"
61
+ "on peut trouver"
62
+ "il est possible de trouver"
63
+ "on découvre"
64
+ "il est possible de découvrir"
65
+
66
+ Pour chaque occurrence trouvée, veuillez :
67
+
68
+ - Citer la phrase complète où l'expression apparaît.
69
+ - Indiquer l'expression exacte utilisée dans le texte.
70
+ - Expliquer pourquoi l'expression "il existe" peut être lourde, formelle ou inutilement descriptive dans certains contextes.
71
+ - Proposer deux reformulations plus simples, fluides et naturelles pour rendre la phrase plus concise ou directe, en évitant d'utiliser "il existe" ou ses variantes.
72
+
73
+ Assurez-vous également de respecter les règles suivantes :
74
+ 1. Les expressions comme "crucial", "essentiel", "important", "fondamental" ne doivent pas être utilisées plus d'une fois dans l'introduction.
75
+ 2. Les expressions comme "il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
76
+ 3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs tels qu'"important", "essentiel", etc.
77
+ 4. "En plus" ne doit pas être utilisé seul en début de phrase.
78
+
79
+ Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
80
+
81
+ - "pattern": "mot ou expression détectée",
82
+ - "indices": [[index de début, index de fin pour chaque occurrence]],
83
+ - "sentence": "phrase où l'expression est utilisée",
84
+ - "alternative_suggestions": ["suggestion 1", "suggestion 2"]
85
+
86
+ Si aucun pattern n'est trouvé, retournez un JSON avec :
87
+ - "pattern0": "",
88
+ - "occurrences": 0,
89
+
90
+ À la fin, ajoutez un résumé avec :
91
+ - "total_patterns_detected": nombre total de patterns détectés,
92
+ - "alternative_suggestions_provided": nombre de suggestions données,
93
+ - "occurrences": nombre d'occurrences.
94
+
95
+ Voici le texte à analyser :
96
+ ```{text}```
97
+
98
+ \n{format_instruction}
99
+ """
100
+
101
+ def il_existe(text):
102
+ # Créer le template avec la variable text intégrée directement
103
+ prompt_template = il_existe_prompt_template()
104
+
105
+ output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
106
+
107
+ # Créer le prompt avec le texte intégré
108
+ gen_prompt_template = PromptTemplate(
109
+ input_variables=["text"],
110
+ template=prompt_template,
111
+ partial_variables={'format_instruction': output_parser.get_format_instructions()}
112
+ )
113
+
114
+ # Créer une instance du modèle de langage
115
+ llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
116
+
117
+ # Exécuter la chaîne avec le LLM
118
+ llm_chain = gen_prompt_template | llm | output_parser
119
+
120
+ # Appel du modèle avec le texte fourni
121
+ result_dict = llm_chain.invoke({"text": text}).to_dict()
122
+
123
+ # Parsing de la réponse JSON
124
+ json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
125
+
126
+ # Générer le prompt final
127
+ final_prompt = gen_prompt_template.format(text=text)
128
+
129
+ # Retourne les suggestions ou les erreurs de parsing
130
+ return {
131
+ "result": json_result,
132
+ "prompt": final_prompt
133
+ }
pattern_il_faut.py ADDED
@@ -0,0 +1,129 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import json
2
+ from langchain.prompts import PromptTemplate
3
+ from langchain.chains import LLMChain
4
+ from pydantic import BaseModel, Field
5
+ from typing import List, Tuple
6
+ from langchain.chat_models import ChatOpenAI
7
+ from langchain.output_parsers import PydanticOutputParser
8
+
9
+
10
+ # Modèles Pydantic pour structurer la réponse
11
+ class AlternativeSuggestion(BaseModel):
12
+ suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
13
+ suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
14
+ justification: str = Field(..., description="Justification de la suggestion.")
15
+
16
+ class PatternDetail(BaseModel):
17
+ pattern: str = Field(..., description="Mot ou expression détectée.")
18
+ indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
19
+ sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
20
+ alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation avec justification.")
21
+
22
+ def to_dict(self):
23
+ return {
24
+ "pattern": self.pattern,
25
+ "indices": self.indices,
26
+ "sentence": self.sentence,
27
+ "alternative_suggestions": {
28
+ "suggestion_1": self.alternative_suggestions.suggestion_1,
29
+ "suggestion_2": self.alternative_suggestions.suggestion_2,
30
+ "justification": self.alternative_suggestions.justification
31
+ }
32
+ }
33
+
34
+ class Summary(BaseModel):
35
+ total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
36
+ alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
37
+ occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
38
+
39
+ def to_dict(self):
40
+ return {
41
+ "total_patterns_detected": self.total_patterns_detected,
42
+ "alternative_suggestions_provided": self.alternative_suggestions_provided,
43
+ "occurrences": self.occurrences
44
+ }
45
+
46
+ class DetectionResult(BaseModel):
47
+ patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
48
+ summary: Summary = Field(..., description="Résumé de la détection.")
49
+
50
+ def to_dict(self):
51
+ return {
52
+ "patterns": [pattern.to_dict() for pattern in self.patterns],
53
+ "summary": self.summary.to_dict()
54
+ }
55
+
56
+ def il_faut_prompt_template():
57
+ return """
58
+ Analyse le texte suivant et détecte toutes les occurrences de l'expression "il faut".
59
+
60
+ Pour chaque occurrence trouvée, veuillez :
61
+
62
+ - Citer la phrase complète où l'expression apparaît.
63
+ - Indiquer l'expression exacte utilisée dans le texte.
64
+ - Expliquer pourquoi l'expression "il faut" peut paraître trop directive ou informelle dans un contexte formel ou professionnel.
65
+ - Proposer deux reformulations de la phrase sans utiliser d'expressions ou de mots qui soulignent l'importance, comme "il est nécessaire de", "il est important de", ou "il convient de".
66
+ - Utilisez des formulations à l'impératif pour rendre la phrase plus directe et fluide.
67
+ - Assurez-vous que la phrase reformulée est fluide, naturelle, et préserve le sens original.
68
+
69
+ Assurez-vous également de respecter les règles suivantes :
70
+ 1. Les expressions comme "crucial", "essentiel", "important", "fondamental", etc., ne doivent pas être utilisées plus d'une fois dans l'introduction.
71
+ 2. Les expressions comme "Il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
72
+ 3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs comme "important", "essentiel", etc.
73
+ 4. "En plus" ne doit pas être utilisé seul en début de phrase.
74
+
75
+ Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
76
+
77
+ - "pattern": "mot ou expression détectée",
78
+ - "indices": [[index de début, index de fin pour chaque occurrence]],
79
+ - "sentence": "phrase où l'expression est utilisée",
80
+ - "alternative_suggestions": ["suggestion 1", "suggestion 2"]
81
+
82
+ Si aucun pattern n'est trouvé, retournez un JSON avec :
83
+ - "pattern0": "",
84
+ - "occurrences": 0,
85
+
86
+ À la fin, ajoutez un résumé avec :
87
+ - "total_patterns_detected": nombre total de patterns détectés,
88
+ - "alternative_suggestions_provided": nombre de suggestions données,
89
+ - "occurrences": nombre d'occurrences.
90
+
91
+ Voici le texte à analyser :
92
+ ```{text}```
93
+
94
+ \n{format_instruction}
95
+ """
96
+
97
+ def il_faut(text):
98
+ # Créer le template avec la variable text intégrée directement
99
+ prompt_template = il_faut_prompt_template()
100
+
101
+ output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
102
+
103
+ # Créer le prompt avec le texte intégré
104
+ gen_prompt_template = PromptTemplate(
105
+ input_variables=["text"],
106
+ template=prompt_template,
107
+ partial_variables={'format_instruction': output_parser.get_format_instructions()}
108
+ )
109
+
110
+ # Créer une instance du modèle de langage
111
+ llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
112
+
113
+ # Exécuter la chaîne avec le LLM
114
+ llm_chain = gen_prompt_template | llm | output_parser
115
+
116
+ # Appel du modèle avec le texte fourni
117
+ result_dict = llm_chain.invoke({"text": text}).to_dict()
118
+
119
+ # Parsing de la réponse JSON
120
+ json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
121
+
122
+ # Générer le prompt final
123
+ final_prompt = gen_prompt_template.format(text=text)
124
+
125
+ # Retourne les suggestions ou les erreurs de parsing
126
+ return {
127
+ "result": json_result,
128
+ "prompt": final_prompt
129
+ }
pattern_look.py ADDED
@@ -0,0 +1,128 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import json
2
+ from langchain.prompts import PromptTemplate
3
+ from langchain.chains import LLMChain
4
+ from pydantic import BaseModel, Field
5
+ from typing import List, Tuple
6
+ from langchain.chat_models import ChatOpenAI
7
+ from langchain.output_parsers import PydanticOutputParser
8
+
9
+
10
+ # Modèles Pydantic pour structurer la réponse
11
+ class AlternativeSuggestion(BaseModel):
12
+ suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
13
+ suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
14
+ justification: str = Field(..., description="Justification de la suggestion.")
15
+
16
+ class PatternDetail(BaseModel):
17
+ pattern: str = Field(..., description="Mot ou expression détectée.")
18
+ indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
19
+ sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
20
+ alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation avec justification.")
21
+
22
+ def to_dict(self):
23
+ return {
24
+ "pattern": self.pattern,
25
+ "indices": self.indices,
26
+ "sentence": self.sentence,
27
+ "alternative_suggestions": {
28
+ "suggestion_1": self.alternative_suggestions.suggestion_1,
29
+ "suggestion_2": self.alternative_suggestions.suggestion_2,
30
+ "justification": self.alternative_suggestions.justification
31
+ }
32
+ }
33
+
34
+ class Summary(BaseModel):
35
+ total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
36
+ alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
37
+ occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
38
+
39
+ def to_dict(self):
40
+ return {
41
+ "total_patterns_detected": self.total_patterns_detected,
42
+ "alternative_suggestions_provided": self.alternative_suggestions_provided,
43
+ "occurrences": self.occurrences
44
+ }
45
+
46
+ class DetectionResult(BaseModel):
47
+ patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
48
+ summary: Summary = Field(..., description="Résumé de la détection.")
49
+
50
+ def to_dict(self):
51
+ return {
52
+ "patterns": [pattern.to_dict() for pattern in self.patterns],
53
+ "summary": self.summary.to_dict()
54
+ }
55
+
56
+ def look_prompt_template():
57
+ return """
58
+ Analyse le texte suivant et détecte strictement toutes les occurrences du mot "look" utilisées dans le contexte de la décoration et de l'aménagement des espaces de vie ou de travail.
59
+
60
+ Pour chaque occurrence trouvée, veuillez :
61
+
62
+ - Citer la phrase complète où l'expression apparaît.
63
+ - Indiquer l'expression exacte utilisée dans le texte.
64
+ - Expliquer pourquoi l'utilisation de "look" est inappropriée dans ce contexte décoratif en français, en précisant qu'il s'agit d'un anglicisme.
65
+ - Proposer deux reformulations de la phrase en utilisant un terme ou une expression plus correcte en français, comme "style", "allure", "ambiance", "aspect", ou "touche", en tenant compte du contexte de la décoration.
66
+ - Assurez-vous que la phrase reformulée soit fluide, naturelle et préserve le sens original.
67
+
68
+ Assurez-vous également de respecter les règles suivantes :
69
+ 1. Les expressions comme "crucial", "essentiel", "important", "fondamental", etc., ne doivent pas être utilisées plus d'une fois dans l'introduction.
70
+ 2. Les expressions comme "Il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
71
+ 3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs comme "important", "essentiel", etc.
72
+ 4. "En plus" ne doit pas être utilisé seul en début de phrase.
73
+
74
+ Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
75
+
76
+ - "pattern": "mot ou expression détectée",
77
+ - "indices": [[index de début, index de fin pour chaque occurrence]],
78
+ - "sentence": "phrase où l'expression est utilisée",
79
+ - "alternative_suggestions": ["suggestion 1", "suggestion 2"]
80
+
81
+ Si aucun pattern n'est trouvé, retournez un JSON avec :
82
+ - "pattern0": "",
83
+ - "occurrences": 0,
84
+
85
+ À la fin, ajoutez un résumé avec :
86
+ - "total_patterns_detected": nombre total de patterns détectés,
87
+ - "alternative_suggestions_provided": nombre de suggestions données,
88
+ - "occurrences": nombre d'occurrences.
89
+
90
+ Voici le texte à analyser :
91
+ ```{text}```
92
+
93
+ \n{format_instruction}
94
+ """
95
+
96
+ def look(text):
97
+ # Créer le template avec la variable text intégrée directement
98
+ prompt_template = look_prompt_template()
99
+
100
+ output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
101
+
102
+ # Créer le prompt avec le texte intégré
103
+ gen_prompt_template = PromptTemplate(
104
+ input_variables=["text"],
105
+ template=prompt_template,
106
+ partial_variables={'format_instruction': output_parser.get_format_instructions()}
107
+ )
108
+
109
+ # Créer une instance du modèle de langage
110
+ llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
111
+
112
+ # Exécuter la chaîne avec le LLM
113
+ llm_chain = gen_prompt_template | llm | output_parser
114
+
115
+ # Appel du modèle avec le texte fourni
116
+ result_dict = llm_chain.invoke({"text": text}).to_dict()
117
+
118
+ # Parsing de la réponse JSON
119
+ json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
120
+
121
+ # Générer le prompt final
122
+ final_prompt = gen_prompt_template.format(text=text)
123
+
124
+ # Retourne les suggestions ou les erreurs de parsing
125
+ return {
126
+ "result": json_result,
127
+ "prompt": final_prompt
128
+ }
pattern_vous_pouvez.py ADDED
@@ -0,0 +1,129 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import json
2
+ from langchain.prompts import PromptTemplate
3
+ from langchain.chains import LLMChain
4
+ from pydantic import BaseModel, Field
5
+ from typing import List, Tuple
6
+ from langchain.chat_models import ChatOpenAI
7
+ from langchain.output_parsers import PydanticOutputParser
8
+
9
+
10
+ # Modèles Pydantic pour structurer la réponse
11
+ class AlternativeSuggestion(BaseModel):
12
+ suggestion_1: str = Field(..., description="Première suggestion de reformulation.")
13
+ suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.")
14
+ justification: str = Field(..., description="Justification de la suggestion.")
15
+
16
+ class PatternDetail(BaseModel):
17
+ pattern: str = Field(..., description="Mot ou expression détectée.")
18
+ indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.")
19
+ sentence: str = Field(..., description="Phrase complète où l'expression apparaît.")
20
+ alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation avec justification.")
21
+
22
+ def to_dict(self):
23
+ return {
24
+ "pattern": self.pattern,
25
+ "indices": self.indices,
26
+ "sentence": self.sentence,
27
+ "alternative_suggestions": {
28
+ "suggestion_1": self.alternative_suggestions.suggestion_1,
29
+ "suggestion_2": self.alternative_suggestions.suggestion_2,
30
+ "justification": self.alternative_suggestions.justification
31
+ }
32
+ }
33
+
34
+ class Summary(BaseModel):
35
+ total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.")
36
+ alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.")
37
+ occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.")
38
+
39
+ def to_dict(self):
40
+ return {
41
+ "total_patterns_detected": self.total_patterns_detected,
42
+ "alternative_suggestions_provided": self.alternative_suggestions_provided,
43
+ "occurrences": self.occurrences
44
+ }
45
+
46
+ class DetectionResult(BaseModel):
47
+ patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.")
48
+ summary: Summary = Field(..., description="Résumé de la détection.")
49
+
50
+ def to_dict(self):
51
+ return {
52
+ "patterns": [pattern.to_dict() for pattern in self.patterns],
53
+ "summary": self.summary.to_dict()
54
+ }
55
+
56
+ def vous_pouvez_prompt_template():
57
+ return """
58
+ Analyser le texte ci-dessous pour détecter les expressions "vous pouvez", "vous devez", "il vous faut",
59
+ "vous avez à", "il est nécessaire que vous", "vous avez la possibilité de", "vous êtes prié de" et autres formules similaires.
60
+
61
+ Pour chaque occurrence trouvée, veuillez :
62
+
63
+ - Citer la phrase complète où l'expression apparaît.
64
+ - Indiquer l'expression exacte utilisée dans le texte.
65
+ - Expliquer pourquoi ces expressions peuvent alourdir le texte ou donner un ton trop directif ou permissif.
66
+ - Proposer deux reformulations de la phrase plus fluides, en évitant d'insister sur la permission ou l'autorité, en privilégiant des tournures neutres ou à l'impératif.
67
+ - Assurez-vous que la phrase reformulée est fluide, naturelle, et conserve le sens original sans insister sur l'importance de l'action.
68
+
69
+ Assurez-vous également de respecter les règles suivantes :
70
+ 1. Les expressions comme "crucial", "essentiel", "important", "fondamental" ne doivent pas être utilisées plus d'une fois dans l'introduction.
71
+ 2. Les expressions comme "il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
72
+ 3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs tels qu'"important", "essentiel", etc.
73
+ 4. "En plus" ne doit pas être utilisé seul en début de phrase.
74
+
75
+ Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
76
+
77
+ - "pattern": "mot ou expression détectée",
78
+ - "indices": [[index de début, index de fin pour chaque occurrence]],
79
+ - "sentence": "phrase où l'expression est utilisée",
80
+ - "alternative_suggestions": ["suggestion 1", "suggestion 2"]
81
+
82
+ Si aucun pattern n'est trouvé, retournez un JSON avec :
83
+ - "pattern0": "",
84
+ - "occurrences": 0,
85
+
86
+ À la fin, ajoutez un résumé avec :
87
+ - "total_patterns_detected": nombre total de patterns détectés,
88
+ - "alternative_suggestions_provided": nombre de suggestions données,
89
+ - "occurrences": nombre d'occurrences.
90
+
91
+ Voici le texte à analyser :
92
+ ```{text}```
93
+
94
+ \n{format_instruction}
95
+ """
96
+
97
+ def vous_pouvez(text):
98
+ # Créer le template avec la variable text intégrée directement
99
+ prompt_template = vous_pouvez_prompt_template()
100
+
101
+ output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
102
+
103
+ # Créer le prompt avec le texte intégré
104
+ gen_prompt_template = PromptTemplate(
105
+ input_variables=["text"],
106
+ template=prompt_template,
107
+ partial_variables={'format_instruction': output_parser.get_format_instructions()}
108
+ )
109
+
110
+ # Créer une instance du modèle de langage
111
+ llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
112
+
113
+ # Exécuter la chaîne avec le LLM
114
+ llm_chain = gen_prompt_template | llm | output_parser
115
+
116
+ # Appel du modèle avec le texte fourni
117
+ result_dict = llm_chain.invoke({"text": text}).to_dict()
118
+
119
+ # Parsing de la réponse JSON
120
+ json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
121
+
122
+ # Générer le prompt final
123
+ final_prompt = gen_prompt_template.format(text=text)
124
+
125
+ # Retourne les suggestions ou les erreurs de parsing
126
+ return {
127
+ "result": json_result,
128
+ "prompt": final_prompt
129
+ }