authoring-app / pattern_ce_qui_explique.py
FerdinandPyCode's picture
est une epoque
a25869d
import json
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
from pydantic import BaseModel, Field
from typing import List, Tuple
from langchain.chat_models import ChatOpenAI
from langchain.output_parsers import PydanticOutputParser
class Expression(BaseModel):
expression: str = Field(..., description="Expression détectée (ex: 'est une étape importante')")
indice_debut: int = Field(..., description="Indice de début de l'expression")
indice_fin: int = Field(..., description="Indice de fin de l'expression")
class Phrase(BaseModel):
texte: str = Field(..., description="Phrase complète contenant l'expression ou les expressions détectées")
indice_debut: int = Field(..., description="Indice de début de la phrase")
indice_fin: int = Field(..., description="Indice de fin de la phrase")
class Reformulation(BaseModel):
texte: str = Field(..., description="Texte de la reformulation")
class PhraseDetectee(BaseModel):
phrase: Phrase = Field(..., description="Détails de la phrase")
erreurs: List[Expression] = Field(..., description="Liste des expressions détectées dans la phrase")
reformulations: List[Reformulation] = Field(..., description="Liste des reformulations proposées")
justification: str = Field(..., description="Justification des reformulations proposées")
class Summary(BaseModel):
total_erreurs: int = Field(..., description="Nombre total d'expressions détectées")
total_phrases: int = Field(..., description="Nombre total de phrases contenant des expressions")
total_reformulations: int = Field(..., description="Nombre total de reformulations proposées")
class DetectionResult(BaseModel):
phrases_detectees: List[PhraseDetectee] = Field(..., description="Liste des phrases détectées avec détails")
summary: Summary = Field(..., description="Résumé de la détection")
def to_dict(self):
return {
"phrases_detectees": [phrase.model_dump() for phrase in self.phrases_detectees],
"summary": self.summary.model_dump()
}
def explication_prompt_template():
return """En tant que rédacteur web expert, votre mission est d'analyser le texte suivant et d'identifier toutes les occurrences de l'expression "Ce qui" et ses variantes, particulièrement lorsqu'elles introduisent une conséquence, une explication ou une clarification.
Expressions à rechercher (incluez également toute autre expression similaire commençant par "Ce qui") :
- "Ce qui signifie que"
- "Ce qui implique que"
- "Ce qui veut dire que"
- "Ce qui fait que"
- "Ce qui entraîne"
- "Ce qui conduit à"
- "Ce qui permet de"
- "Ce qui résulte en"
- "Ce qui cause"
- "Ce qui représente"
Voici quelques exemples d'erreurs que vous devez détecter et corriger :
- "Ce qui signifie que le projet est en retard", mais on dit "Le projet accuse donc un retard"
- "Ce qui implique que nous devons revoir notre stratégie", mais on dit "Par conséquent, notre stratégie nécessite une révision"
- "Ce qui veut dire que les résultats sont positifs", mais on dit "Les résultats s'avèrent donc positifs"
- "Ce qui fait que nous devons agir rapidement", mais on dit "Cette situation exige une action rapide de notre part"
- "Ce qui entraîne une augmentation des coûts", mais on dit "Cela entraîne une hausse des coûts"
Regroupe les expressions détectés par phrase et pour chaque phrase, veuillez :
1. Citez la phrase complète avec ses indices de début et de fin.
2. Identifiez l'expression ou les expressions exacte avec leurs indices.
3. Proposer 5 reformulations améliorant le style tout en préservant le sens et le contexte.
4. Fournir une justification unique pour les reformulations, expliquant comment elles améliorent le style ou la clarté.
Règles de reformulation :
- Évitez l'utilisation directe des expressions commençant par "Ce qui".
- Remplacez ces constructions par des formulations plus directes ou des liens logiques plus explicites.
- Utilisez un vocabulaire professionnel et formel.
- Variez la structure des phrases pour éviter la répétition.
- Assurez-vous que les reformulations conservent le lien logique ou la clarification exprimée dans la phrase originale.
Texte à analyser :
{text}
Format de sortie JSON :
{{
"phrases_detectees": [
{{
"phrase": {{
"texte": "Phrase complète contenant l'expression ou les expressions détectées",
"indice_debut": x,
"indice_fin": y
}},
"erreurs": [
{{
"expression": "Expression détectée (ex: 'Ce qui signifie que')",
"indice_debut": a,
"indice_fin": b
}}
],
"reformulations": [
{{ "texte": "Reformulation 1" }},
{{ "texte": "Reformulation 2" }},
{{ "texte": "Reformulation 3" }},
{{ "texte": "Reformulation 4" }},
{{ "texte": "Reformulation 5" }}
],
"justification": "Justification des reformulations proposées, expliquant comment elles améliorent le style ou la clarté."
}}
],
"summary": {{
"total_erreurs": nombre_total_d_expressions_detectées,
"total_phrases": nombre_total_de_phrases_contenant_des_expressions,
"total_reformulations": nombre_total_de_reformulations_proposées
}}
}}
Assurez-vous que les indices correspondent aux positions exactes dans le texte original et que le JSON est correctement formaté.
{format_instruction}
"""
def explication(text):
# Créer le template avec la variable text intégrée directement
prompt_template = explication_prompt_template()
output_parser = PydanticOutputParser(pydantic_object=DetectionResult)
# Créer le prompt avec le texte intégré
gen_prompt_template = PromptTemplate(
input_variables=["text"],
template=prompt_template,
partial_variables={'format_instruction': output_parser.get_format_instructions()}
)
# Créer une instance du modèle de langage
llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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")
# Exécuter la chaîne avec le LLM
llm_chain = gen_prompt_template | llm | output_parser
# Appel du modèle avec le texte fourni
result_dict = llm_chain.invoke({"text": text}).to_dict()
# Parsing de la réponse JSON
json_result = json.dumps(result_dict, indent=8, ensure_ascii=False)
# Générer le prompt final
final_prompt = gen_prompt_template.format(text=text)
# Retourne les suggestions ou les erreurs de parsing
return {
"result": json_result,
"prompt": final_prompt
}