Spaces:
Sleeping
Sleeping
Commit
·
cc27478
1
Parent(s):
55f834a
pushing error of style
Browse files- app.py +21 -3
- erreur_de_style.py +168 -0
- faute_style.py → erreurs_de_langue.py +0 -0
app.py
CHANGED
@@ -21,7 +21,8 @@ from pattern_il_suffit_de import detect_il_suffit_de, il_suffit_de_prompt_templa
|
|
21 |
from pattern_important_crucial import importance_prompt_template, importance_detection
|
22 |
from pattern_permettre import permettre_detection, permettre_prompt_template
|
23 |
from pattern_voici_decouvrez import detect_voici_decouvrez, voici_decouvrez_prompt_template
|
24 |
-
from
|
|
|
25 |
|
26 |
# Interface Streamlit
|
27 |
st.title("Analyse du texte")
|
@@ -45,7 +46,8 @@ List_prompt = {
|
|
45 |
"< Détection du pattern 'important crucial' >": importance_prompt_template(),
|
46 |
"< Détection du pattern 'permettre' >": permettre_prompt_template(),
|
47 |
"< Détection du pattern 'voici découvrez' >": voici_decouvrez_prompt_template(),
|
48 |
-
"< Détection des erreurs de
|
|
|
49 |
}
|
50 |
|
51 |
# Menu déroulant pour sélectionner l'analyse
|
@@ -354,7 +356,7 @@ if st.button("Lancer l'analyse"):
|
|
354 |
logging.error(f"Error during analysis: {e}")
|
355 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
356 |
|
357 |
-
elif option == "< Détection des erreurs de
|
358 |
try:
|
359 |
# Analyser le texte pour les fautes de style
|
360 |
result = detect_errors(input_text)
|
@@ -371,5 +373,21 @@ if st.button("Lancer l'analyse"):
|
|
371 |
logging.error(f"Error during analysis: {e}")
|
372 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
373 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
374 |
else:
|
375 |
st.error("Veuillez entrer du texte pour lancer l'analyse.")
|
|
|
21 |
from pattern_important_crucial import importance_prompt_template, importance_detection
|
22 |
from pattern_permettre import permettre_detection, permettre_prompt_template
|
23 |
from pattern_voici_decouvrez import detect_voici_decouvrez, voici_decouvrez_prompt_template
|
24 |
+
from erreurs_de_langue import detect_errors, academie_prompt_template
|
25 |
+
from erreur_de_style import detect_erreur_de_style, erreur_de_style_prompt_template
|
26 |
|
27 |
# Interface Streamlit
|
28 |
st.title("Analyse du texte")
|
|
|
46 |
"< Détection du pattern 'important crucial' >": importance_prompt_template(),
|
47 |
"< Détection du pattern 'permettre' >": permettre_prompt_template(),
|
48 |
"< Détection du pattern 'voici découvrez' >": voici_decouvrez_prompt_template(),
|
49 |
+
"< Détection des erreurs de 'langue courante' >" : academie_prompt_template(),
|
50 |
+
"< Détection des erreurs de style >": erreur_de_style_prompt_template()
|
51 |
}
|
52 |
|
53 |
# Menu déroulant pour sélectionner l'analyse
|
|
|
356 |
logging.error(f"Error during analysis: {e}")
|
357 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
358 |
|
359 |
+
elif option == "< Détection des erreurs de 'langue courante' >" :
|
360 |
try:
|
361 |
# Analyser le texte pour les fautes de style
|
362 |
result = detect_errors(input_text)
|
|
|
373 |
logging.error(f"Error during analysis: {e}")
|
374 |
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
375 |
|
376 |
+
elif option == "< Détection des erreurs de style >":
|
377 |
+
try:
|
378 |
+
# Analyser le texte pour les fautes de style
|
379 |
+
result = detect_erreur_de_style(input_text)
|
380 |
+
|
381 |
+
# Afficher les résultats en JSON formaté
|
382 |
+
st.subheader("Résultats de l'analyse des erreurs de style")
|
383 |
+
st.json(result['result'], expanded=True)
|
384 |
+
|
385 |
+
# Afficher le prompt final
|
386 |
+
st.subheader("Prompt final envoyé au modèle")
|
387 |
+
st.write(result['prompt'])
|
388 |
+
|
389 |
+
except Exception as e:
|
390 |
+
logging.error(f"Error during analysis: {e}")
|
391 |
+
st.error(f"Une erreur s'est produite lors de l'analyse : {str(e)}")
|
392 |
else:
|
393 |
st.error("Veuillez entrer du texte pour lancer l'analyse.")
|
erreur_de_style.py
ADDED
@@ -0,0 +1,168 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import json
|
2 |
+
from langchain.prompts import PromptTemplate
|
3 |
+
from langchain.chains import LLMChain
|
4 |
+
from pydantic import BaseModel, Field, field_validator
|
5 |
+
from typing import List, Tuple
|
6 |
+
from langchain.chat_models import ChatOpenAI
|
7 |
+
from langchain.output_parsers import PydanticOutputParser
|
8 |
+
|
9 |
+
# Last version Yet
|
10 |
+
|
11 |
+
class PhraseDetail(BaseModel):
|
12 |
+
texte: str
|
13 |
+
indice_debut: int
|
14 |
+
indice_fin: int
|
15 |
+
|
16 |
+
class Erreur(BaseModel):
|
17 |
+
expression: str
|
18 |
+
indice_debut: int
|
19 |
+
indice_fin: int
|
20 |
+
|
21 |
+
class Reformulation(BaseModel):
|
22 |
+
texte: str
|
23 |
+
|
24 |
+
class DetectedPhrase(BaseModel):
|
25 |
+
phrase: PhraseDetail
|
26 |
+
erreurs: List[Erreur]
|
27 |
+
reformulations: List[Reformulation]
|
28 |
+
justification: str
|
29 |
+
|
30 |
+
class Summary(BaseModel):
|
31 |
+
total_erreurs: int
|
32 |
+
total_phrases: int
|
33 |
+
total_reformulations: int
|
34 |
+
|
35 |
+
@field_validator('total_erreurs', 'total_phrases', 'total_reformulations')
|
36 |
+
def non_negative(cls, v, field):
|
37 |
+
if v < 0:
|
38 |
+
raise ValueError(f"{field.name} doit être non négatif")
|
39 |
+
return v
|
40 |
+
|
41 |
+
|
42 |
+
class DetectionResult(BaseModel):
|
43 |
+
phrases_detectees: List[DetectedPhrase] = Field(..., description="Liste des phrases contenant des erreurs avec leurs détails.")
|
44 |
+
summary: Summary = Field(..., description="Résumé des détections.")
|
45 |
+
|
46 |
+
def to_dict(self):
|
47 |
+
return {
|
48 |
+
"phrases_detectees": [phrase_detectee.model_dump() for phrase_detectee in self.phrases_detectees],
|
49 |
+
"summary": self.summary.model_dump()
|
50 |
+
}
|
51 |
+
|
52 |
+
|
53 |
+
def erreur_de_style_prompt_template():
|
54 |
+
return """Tu es un rédacteur web expérimenté et pointilleux qui fait attention aux moindres détails. Je vais te donner un texte, et ta mission est de repérer des fautes de style. Cela inclut :
|
55 |
+
- Les répétitions de mots (le même terme répété à moins de 100 mots d'intervalle, hors déterminants et stop-words).
|
56 |
+
- Les répétitions d'idées (lorsqu'une idée est répétée inutilement).
|
57 |
+
- Les formulations maladroites (des phrases qui ne sont pas fluides ou qui rendent la lecture difficile).
|
58 |
+
- Les mauvais choix de mots (par exemple lorsque le rédacteur utilise une expression inappropriée ou peu précise).
|
59 |
+
|
60 |
+
Voici quelques exemples d'erreurs que tu dois détecter et corriger :
|
61 |
+
- Répétition : "Le chat noir est un chat qui porte bonheur", mais on dit "Le chat noir est un félin qui porte bonheur"
|
62 |
+
- Formulation maladroite : "Il a fait la chose qu'il ne fallait pas faire", mais on dit "Il a commis une erreur"
|
63 |
+
- Mauvais choix de mots : "Il a pris une décision rapide", mais on dit "Il a pris une décision précipitée"
|
64 |
+
|
65 |
+
Pour chaque occurrence trouvée, veille à :
|
66 |
+
|
67 |
+
- Citer la phrase complète où l'expression apparaît, avec les **indices de début et de fin** de cette phrase dans le texte.
|
68 |
+
- Indiquer l'expression exacte utilisée dans le texte, avec ses **indices de début et de fin** pour chaque occurrence.
|
69 |
+
- Proposer 5 reformulations. Vous pouvez modifier toute la phrase si nécessaire pour améliorer le style tout en conservant le sens original et en prenant en compte le **contexte global** de la phrase dans le texte.
|
70 |
+
- Fournir **une justification unique** expliquant pourquoi les cinq reformulations proposées améliorent la phrase originale.
|
71 |
+
|
72 |
+
Les reformulations proposées doivent être fluides, naturelles, et respecter les règles suivantes :
|
73 |
+
- Évitez les anglicismes et les formulations informelles.
|
74 |
+
- Utilisez des termes et expressions appropriés pour un contexte formel ou professionnel.
|
75 |
+
- Les expressions comme "crucial", "essentiel", "important", "fondamental", etc., ne doivent pas être utilisées dans les phrases.
|
76 |
+
- Les expressions comme "Il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase.
|
77 |
+
- Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs comme "important", "essentiel", etc.
|
78 |
+
- "En plus" ne doit pas être utilisé seul en début de phrase.
|
79 |
+
|
80 |
+
Les reformulations doivent également éviter les erreurs de langue courantes, notamment celles répertoriées par l'Académie Française (site : https://www.academie-francaise.fr/dire-ne-pas-dire/).
|
81 |
+
|
82 |
+
Assurez-vous que chaque reformulation tient compte du **contexte sémantique** et logique de la phrase et du paragraphe dans lequel elle apparaît. Les reformulations doivent préserver le sens global de la phrase et son intention originale, même si la structure de la phrase change.
|
83 |
+
|
84 |
+
Voici le texte à analyser :
|
85 |
+
{text}
|
86 |
+
|
87 |
+
Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté :
|
88 |
+
```json
|
89 |
+
{{
|
90 |
+
"phrases_detectees": [
|
91 |
+
{{
|
92 |
+
"phrase": {{
|
93 |
+
"texte": "La phrase complète contenant les erreurs.",
|
94 |
+
"indice_debut": indice_debut_de_la_phrase,
|
95 |
+
"indice_fin": indice_fin_de_la_phrase
|
96 |
+
}},
|
97 |
+
"erreurs": [
|
98 |
+
{{
|
99 |
+
"expression": "L'expression erronée",
|
100 |
+
"indice_debut": indice_debut_de_l_expression,
|
101 |
+
"indice_fin": indice_fin_de_l_expression
|
102 |
+
}}
|
103 |
+
|
104 |
+
],
|
105 |
+
"reformulations": [errors
|
106 |
+
{{
|
107 |
+
"texte": "Première reformulation de la phrase en tenant compte de toutes les erreurs détectées."
|
108 |
+
}},
|
109 |
+
{{
|
110 |
+
"texte": "Deuxième reformulation de la phrase en tenant compte de toutes les erreurs détectées."
|
111 |
+
}},
|
112 |
+
{{
|
113 |
+
"texte": "Troisième reformulation de la phrase en tenant compte de toutes les erreurs détectées."
|
114 |
+
}},
|
115 |
+
{{
|
116 |
+
"texte": "Quatrième reformulation de la phrase en tenant compte de toutes les erreurs détectées."
|
117 |
+
}},
|
118 |
+
{{
|
119 |
+
"texte": "Cinquième reformulation de la phrase en tenant compte de toutes les erreurs détectées."
|
120 |
+
}}
|
121 |
+
],
|
122 |
+
"justification": "Explication de pourquoi les cinq reformulations proposées sont plus correctes ou meilleures en tenant compte des erreurs détectées."
|
123 |
+
}}
|
124 |
+
|
125 |
+
],
|
126 |
+
"summary": {{
|
127 |
+
"total_erreurs": nombre_total_d_erreurs_detectées,
|
128 |
+
"total_phrases": nombre_total_de_phrases_contenant_des_erreurs,
|
129 |
+
"total_reformulations": nombre_total_de_reformulations_proposées
|
130 |
+
}}
|
131 |
+
}}
|
132 |
+
```
|
133 |
+
\n{format_instruction}
|
134 |
+
"""
|
135 |
+
|
136 |
+
def detect_erreur_de_style(text):
|
137 |
+
# Créer le template avec la variable text intégrée directement
|
138 |
+
prompt_template = erreur_de_style_prompt_template()
|
139 |
+
|
140 |
+
output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
|
141 |
+
|
142 |
+
# Créer le prompt avec le texte intégré
|
143 |
+
gen_prompt_template = PromptTemplate(
|
144 |
+
input_variables=["text"],
|
145 |
+
template=prompt_template,
|
146 |
+
partial_variables={'format_instruction': output_parser.get_format_instructions()}
|
147 |
+
)
|
148 |
+
|
149 |
+
# Créer une instance du modèle de langage
|
150 |
+
llm = ChatOpenAI(model='gpt-4', temperature=0.5, api_key="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")
|
151 |
+
|
152 |
+
# Exécuter la chaîne avec le LLM
|
153 |
+
llm_chain = gen_prompt_template | llm | output_parser
|
154 |
+
|
155 |
+
# Appel du modèle avec le texte fourni
|
156 |
+
result_dict = llm_chain.invoke({"text": text}).to_dict()
|
157 |
+
|
158 |
+
# Parsing de la réponse JSON
|
159 |
+
json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
|
160 |
+
|
161 |
+
# Générer le prompt final
|
162 |
+
final_prompt = gen_prompt_template.format(text=text)
|
163 |
+
|
164 |
+
# Retourne les suggestions ou les erreurs de parsing
|
165 |
+
return {
|
166 |
+
"result": json_result,
|
167 |
+
"prompt": final_prompt
|
168 |
+
}
|
faute_style.py → erreurs_de_langue.py
RENAMED
File without changes
|