Spaces:
Sleeping
Sleeping
import json | |
from langchain.prompts import PromptTemplate | |
from langchain.chains import LLMChain | |
from pydantic import BaseModel, Field | |
from typing import List, Tuple | |
from langchain.chat_models import ChatOpenAI | |
from langchain.output_parsers import PydanticOutputParser | |
class Expression(BaseModel): | |
expression: str = Field(..., description="Expression détectée (ex: 'est une étape importante')") | |
indice_debut: int = Field(..., description="Indice de début de l'expression") | |
indice_fin: int = Field(..., description="Indice de fin de l'expression") | |
class Phrase(BaseModel): | |
texte: str = Field(..., description="Phrase complète contenant l'expression ou les expressions détectées") | |
indice_debut: int = Field(..., description="Indice de début de la phrase") | |
indice_fin: int = Field(..., description="Indice de fin de la phrase") | |
class Reformulation(BaseModel): | |
texte: str = Field(..., description="Texte de la reformulation") | |
class PhraseDetectee(BaseModel): | |
phrase: Phrase = Field(..., description="Détails de la phrase") | |
erreurs: List[Expression] = Field(..., description="Liste des expressions détectées dans la phrase") | |
reformulations: List[Reformulation] = Field(..., description="Liste des reformulations proposées") | |
justification: str = Field(..., description="Justification des reformulations proposées") | |
class Summary(BaseModel): | |
total_erreurs: int = Field(..., description="Nombre total d'expressions détectées") | |
total_phrases: int = Field(..., description="Nombre total de phrases contenant des expressions") | |
total_reformulations: int = Field(..., description="Nombre total de reformulations proposées") | |
class DetectionResult(BaseModel): | |
phrases_detectees: List[PhraseDetectee] = Field(..., description="Liste des phrases détectées avec détails") | |
summary: Summary = Field(..., description="Résumé de la détection") | |
def to_dict(self): | |
return { | |
"phrases_detectees": [phrase.model_dump() for phrase in self.phrases_detectees], | |
"summary": self.summary.model_dump() | |
} | |
def explication_prompt_template(): | |
return """En tant que rédacteur web expert, votre mission est d'analyser le texte suivant et d'identifier toutes les occurrences de l'expression "Ce qui" et ses variantes, particulièrement lorsqu'elles introduisent une conséquence, une explication ou une clarification. | |
Expressions à rechercher (incluez également toute autre expression similaire commençant par "Ce qui") : | |
- "Ce qui signifie que" | |
- "Ce qui implique que" | |
- "Ce qui veut dire que" | |
- "Ce qui fait que" | |
- "Ce qui entraîne" | |
- "Ce qui conduit à" | |
- "Ce qui permet de" | |
- "Ce qui résulte en" | |
- "Ce qui cause" | |
- "Ce qui représente" | |
Voici quelques exemples d'erreurs que vous devez détecter et corriger : | |
- "Ce qui signifie que le projet est en retard", mais on dit "Le projet accuse donc un retard" | |
- "Ce qui implique que nous devons revoir notre stratégie", mais on dit "Par conséquent, notre stratégie nécessite une révision" | |
- "Ce qui veut dire que les résultats sont positifs", mais on dit "Les résultats s'avèrent donc positifs" | |
- "Ce qui fait que nous devons agir rapidement", mais on dit "Cette situation exige une action rapide de notre part" | |
- "Ce qui entraîne une augmentation des coûts", mais on dit "Cela entraîne une hausse des coûts" | |
Regroupe les expressions détectés par phrase et pour chaque phrase, veuillez : | |
1. Citez la phrase complète avec ses indices de début et de fin. | |
2. Identifiez l'expression ou les expressions exacte avec leurs indices. | |
3. Proposer 5 reformulations améliorant le style tout en préservant le sens et le contexte. | |
4. Fournir une justification unique pour les reformulations, expliquant comment elles améliorent le style ou la clarté. | |
Règles de reformulation : | |
- Évitez l'utilisation directe des expressions commençant par "Ce qui". | |
- Remplacez ces constructions par des formulations plus directes ou des liens logiques plus explicites. | |
- Utilisez un vocabulaire professionnel et formel. | |
- Variez la structure des phrases pour éviter la répétition. | |
- Assurez-vous que les reformulations conservent le lien logique ou la clarification exprimée dans la phrase originale. | |
Texte à analyser : | |
{text} | |
Format de sortie JSON : | |
{{ | |
"phrases_detectees": [ | |
{{ | |
"phrase": {{ | |
"texte": "Phrase complète contenant l'expression ou les expressions détectées", | |
"indice_debut": x, | |
"indice_fin": y | |
}}, | |
"erreurs": [ | |
{{ | |
"expression": "Expression détectée (ex: 'Ce qui signifie que')", | |
"indice_debut": a, | |
"indice_fin": b | |
}} | |
], | |
"reformulations": [ | |
{{ "texte": "Reformulation 1" }}, | |
{{ "texte": "Reformulation 2" }}, | |
{{ "texte": "Reformulation 3" }}, | |
{{ "texte": "Reformulation 4" }}, | |
{{ "texte": "Reformulation 5" }} | |
], | |
"justification": "Justification des reformulations proposées, expliquant comment elles améliorent le style ou la clarté." | |
}} | |
], | |
"summary": {{ | |
"total_erreurs": nombre_total_d_expressions_detectées, | |
"total_phrases": nombre_total_de_phrases_contenant_des_expressions, | |
"total_reformulations": nombre_total_de_reformulations_proposées | |
}} | |
}} | |
Assurez-vous que les indices correspondent aux positions exactes dans le texte original et que le JSON est correctement formaté. | |
{format_instruction} | |
""" | |
def explication(text): | |
# Créer le template avec la variable text intégrée directement | |
prompt_template = explication_prompt_template() | |
output_parser = PydanticOutputParser(pydantic_object=DetectionResult) | |
# Créer le prompt avec le texte intégré | |
gen_prompt_template = PromptTemplate( | |
input_variables=["text"], | |
template=prompt_template, | |
partial_variables={'format_instruction': output_parser.get_format_instructions()} | |
) | |
# Créer une instance du modèle de langage | |
llm = ChatOpenAI(model='gpt-4o', temperature=0.5, api_key="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") | |
# Exécuter la chaîne avec le LLM | |
llm_chain = gen_prompt_template | llm | output_parser | |
# Appel du modèle avec le texte fourni | |
result_dict = llm_chain.invoke({"text": text}).to_dict() | |
# Parsing de la réponse JSON | |
json_result = json.dumps(result_dict, indent=8, ensure_ascii=False) | |
# Générer le prompt final | |
final_prompt = gen_prompt_template.format(text=text) | |
# Retourne les suggestions ou les erreurs de parsing | |
return { | |
"result": json_result, | |
"prompt": final_prompt | |
} |