import json from langchain.prompts import PromptTemplate from langchain.chains import LLMChain from pydantic import BaseModel, Field from typing import List, Tuple from langchain.chat_models import ChatOpenAI from langchain.output_parsers import PydanticOutputParser # Modèles Pydantic pour structurer la réponse class AlternativeSuggestion(BaseModel): suggestion_1: str = Field(..., description="Première suggestion de reformulation.") suggestion_2: str = Field(..., description="Deuxième suggestion de reformulation.") class PatternDetail(BaseModel): pattern: str = Field(..., description="Mot ou expression détectée.") indices: List[Tuple[int, int]] = Field(..., description="Indices de début et de fin pour chaque occurrence dans le texte.") sentence: str = Field(..., description="Phrase complète où l'expression apparaît.") alternative_suggestions: AlternativeSuggestion = Field(..., description="Deux suggestions de reformulation.") def to_dict(self): return { "pattern": self.pattern, "indices": self.indices, "sentence": self.sentence, "alternative_suggestions": { "suggestion_1": self.alternative_suggestions.suggestion_1, "suggestion_2": self.alternative_suggestions.suggestion_2, } } class Summary(BaseModel): total_patterns_detected: int = Field(..., description="Nombre total de patterns détectés.") alternative_suggestions_provided: int = Field(..., description="Nombre total de suggestions fournies.") occurrences: int = Field(..., description="Nombre total d'occurrences trouvées dans le texte.") def to_dict(self): return { "total_patterns_detected": self.total_patterns_detected, "alternative_suggestions_provided": self.alternative_suggestions_provided, "occurrences": self.occurrences } class DetectionResult(BaseModel): patterns: List[PatternDetail] = Field(..., description="Liste des patterns détectés avec détails.") summary: Summary = Field(..., description="Résumé de la détection.") def to_dict(self): return { "patterns": [pattern.to_dict() for pattern in self.patterns], "summary": self.summary.to_dict() } def il_existe_prompt_template(): return """En tant que rédacteur web expert, votre mission est d'analyser le texte suivant et de détecter toutes les occurrences de l'expression "il existe" et ses variantes, telles que : - "Il existe" - "Il y a" - "On trouve" - "On peut trouver" - "Il est possible de trouver" - "On découvre" - "Il est possible de découvrir" Pour chaque phrase où une ou plusieurs occurrences de ces expressions sont trouvées, veuillez : 1. Citer la phrase complète avec ses indices de début et de fin. 2. Identifier l'expression exacte utilisée dans la phrase avec ses indices. 3. Expliquer pourquoi l'expression "il existe" peut être lourde, formelle ou inutilement descriptive dans certains contextes. 4. Proposer cinq reformulations de la phrase en suivant ces instructions : - Rendre la phrase plus concise ou directe en évitant d'utiliser "il existe" ou ses variantes. - Assurez-vous que la phrase reformulée soit fluide, naturelle et conserve le sens original. - Évitez toute redondance ou répétition de mots, tout en vérifiant que la phrase reformulée soit fluide et naturelle. 5. Respecter les règles suivantes lors de la reformulation : - Ne pas utiliser : "Crucial", "Essentiel", "Important", "Fondamental", "Le monde de", "Dans l’univers de", "À l’ère de", "Généralement", "Outre", "Cela signifie que", "Ce qui signifie que", "Voici", "Découvrez", "S’avérer être", "Il suffit de", "Permet", "Décision éclairée", "Décision avisée" et leurs variantes. - Ne pas utiliser "Look" et ses variantes dans un contexte de décoration. - Ne pas commencer une phrase par : "Il existe", "Il faut", "Cependant", "De plus", "En revanche", "Néanmoins", "Toutefois", "Imaginez" ou leurs variantes. - Ne pas associer : "Joue un rôle", "Il est", "Est une étape" à des mots tels que "Important", "Essentiel", "Crucial", "Primordial", "Fondamental", "Indispensable", "Déterminant". - Ne pas commencer une phrase par : "En plus" ou ses variantes. 6. Justifier les reformulations proposées en expliquant comment elles améliorent le style, la clarté ou la fluidité, tout en rendant la phrase plus concise et professionnelle. Exemples d'erreurs à corriger : - "Il existe plusieurs options pour résoudre ce problème", mais on dit "Plusieurs options sont disponibles pour résoudre ce problème." - "Il y a une manière d'améliorer ce processus", mais on dit "Une manière d'améliorer ce processus est disponible." - "On découvre souvent des erreurs dans les rapports", mais on dit "Les erreurs dans les rapports sont souvent découvertes." Votre analyse doit être retournée en JSON avec la structure suivante : {{ "phrases_detectees": [ {{ "phrase": {{ "texte": "Phrase complète contenant l'expression ou les expressions détectées", "indice_debut": x, "indice_fin": y }}, "erreurs": [ {{ "expression": "Expression détectée", "indice_debut": a, "indice_fin": b }} ], "reformulations": [ {{ "texte": "Reformulation 1" }}, {{ "texte": "Reformulation 2" }}, {{ "texte": "Reformulation 3" }}, {{ "texte": "Reformulation 4" }}, {{ "texte": "Reformulation 5" }} ], "justification": "Justification des reformulations proposées." }} ], "summary": {{ "total_erreurs": nombre_total_d_expressions_detectées, "total_phrases": nombre_total_de_phrases_contenant_des_expressions, "total_reformulations": nombre_total_de_reformulations_proposées }} }} Texte à analyser : {text} Assurez-vous que les indices correspondent aux positions exactes dans le texte original et que le JSON est correctement formaté. {format_instruction} """ # Fonction pour générer le prompt template # def il_existe_prompt_template(): # return """ # Analyser le texte suivant et détecter toutes les occurrences de l'expression "il existe" et ses variantes, telles que : # "il existe" # "il y a" # "on trouve" # "on peut trouver" # "il est possible de trouver" # "on découvre" # "il est possible de découvrir" # Pour chaque occurrence trouvée, veuillez : # - Citer la phrase complète où l'expression apparaît. # - Indiquer l'expression exacte utilisée dans le texte. # - Expliquer pourquoi l'expression "il existe" peut être lourde, formelle ou inutilement descriptive dans certains contextes. # - Proposer deux reformulations plus simples, fluides et naturelles pour rendre la phrase plus concise ou directe, en évitant d'utiliser "il existe" ou ses variantes. # Assurez-vous également de respecter les règles suivantes : # 1. Les expressions comme "crucial", "essentiel", "important", "fondamental" ne doivent pas être utilisées plus d'une fois dans l'introduction. # 2. Les expressions comme "il existe", "il faut", "cependant", "de plus", "en revanche", "néanmoins", "toutefois" ne doivent pas être utilisées en début de phrase. # 3. Les expressions comme "joue un rôle", "il est", ou "est une étape" ne doivent pas être associées à des adjectifs tels qu'"important", "essentiel", etc. # 4. "En plus" ne doit pas être utilisé seul en début de phrase. # Le format de sortie doit être un JSON structuré avec les éléments suivants pour chaque pattern détecté : # - "pattern": "mot ou expression détectée", # - "indices": [[index de début, index de fin pour chaque occurrence]], # - "sentence": "phrase où l'expression est utilisée", # - "alternative_suggestions": ["suggestion 1", "suggestion 2"] # Si aucun pattern n'est trouvé, retournez un JSON avec : # - "pattern0": "", # - "occurrences": 0, # À la fin, ajoutez un résumé avec : # - "total_patterns_detected": nombre total de patterns détectés, # - "alternative_suggestions_provided": nombre de suggestions données, # - "occurrences": nombre d'occurrences. # Voici le texte à analyser : # ```{text}``` # \n{format_instruction}""" def il_existe(text): # Créer le template avec la variable text intégrée directement prompt_template = il_existe_prompt_template() output_parser = PydanticOutputParser(pydantic_object=DetectionResult) # Créer le prompt avec le texte intégré gen_prompt_template = PromptTemplate( input_variables=["text"], template=prompt_template, partial_variables={'format_instruction': output_parser.get_format_instructions()} ) # Créer une instance du modèle de langage llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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") # Exécuter la chaîne avec le LLM llm_chain = gen_prompt_template | llm | output_parser # Appel du modèle avec le texte fourni result_dict = llm_chain.invoke({"text": text}).to_dict() # Parsing de la réponse JSON json_result = json.dumps(result_dict, indent=8, ensure_ascii=False) # Générer le prompt final final_prompt = gen_prompt_template.format(text=text) # Retourne les suggestions ou les erreurs de parsing return { "result": json_result, "prompt": final_prompt }