File size: 11,409 Bytes
3fe712e
c0eca1f
3fe712e
c0eca1f
 
3fe712e
c0eca1f
3fe712e
c0eca1f
5ff6e68
c0eca1f
7abca01
c629f00
 
e88a35b
3fe712e
 
 
 
 
c0eca1f
 
 
 
 
505ff54
c0eca1f
 
 
 
 
003aab4
3fe712e
e88a35b
26ca5b0
 
e88a35b
 
 
3fe712e
3dbe404
3fe712e
 
 
 
 
 
 
 
 
c0eca1f
bbf7982
 
 
 
c0eca1f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
d9695d6
cc46e5a
 
 
 
7949d6d
86abdc3
0c6e16f
9729db3
456d5c0
9729db3
 
 
 
 
 
0c6e16f
9729db3
 
 
 
 
 
 
 
51ec059
e88a35b
 
 
 
 
 
 
c0eca1f
 
7949d6d
c0eca1f
 
 
 
 
 
 
 
 
 
 
d9695d6
 
2668b0e
d9695d6
505ff54
 
d9695d6
9948d06
a659c17
 
 
 
 
 
 
3341d9a
 
 
 
 
b1435f0
 
 
 
 
 
 
0c6e16f
 
b1435f0
0c6e16f
 
a659c17
b1435f0
 
 
 
 
7cb9d32
 
 
 
a659c17
b1435f0
 
 
 
3341d9a
 
 
 
 
 
 
 
0c6e16f
7cb9d32
 
 
3341d9a
7cb9d32
 
 
 
 
 
b1435f0
d9695d6
 
 
 
003aab4
7a27e9e
003aab4
 
57da3c7
 
c0eca1f
003aab4
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
#load package
from fastapi import FastAPI,HTTPException,status,UploadFile,File
from pydantic import BaseModel
import uvicorn
import logging
import torch
from transformers import T5Tokenizer, T5ForConditionalGeneration,AutoModelForCausalLM,AutoTokenizer
import os
import numpy as np
from openai import OpenAI 
import ollama
import pandas as pd 
# from io import StringIO
import io 
from fastapi.middleware.cors import CORSMiddleware

# Configurer les répertoires de cache
os.environ['TRANSFORMERS_CACHE'] = '/app/.cache'
os.environ['HF_HOME'] = '/app/.cache'
# Charger le modèle et le tokenizer
# model_name = "models/models--t5-base/snapshots/a9723ea7f1b39c1eae772870f3b547bf6ef7e6c1"
# tokenizer = T5Tokenizer.from_pretrained(model_name)
# model = T5ForConditionalGeneration.from_pretrained(model_name)
# model = AutoModelForCausalLM.from_pretrained("THUDM/longwriter-glm4-9b", trust_remote_code=True)
# tokenizer = AutoTokenizer.from_pretrained("THUDM/longwriter-glm4-9b", trust_remote_code=True)
prompt_first ="Résumé en 4 ou 5 phrases de la plainte suivante :"

client = OpenAI(
    base_url="https://integrate.api.nvidia.com/v1",
    api_key="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"
)
 
#Additional information
origins = [
    "https://bambadij-summaryt5.hf.space/generate/",
    "http://bambadij-summaryt5.hf.space/generate/",
    "https://integrate.api.nvidia.com/v1",
    "http://localhost:8080",
]
Informations = """ 
-text : Texte à resumé  

output:
- Text summary : texte resumé
"""

app =FastAPI(
    title='Text Summary',
    description =Informations
)  
  
#class to define the input text 
logging.basicConfig(level=logging.INFO)
logger =logging.getLogger(__name__)

default_prompt = """Bonjour,
en tant qu’expert dans la gestion et le traitement de plaintes réseaux chez un opérateur de télécommunications, fais moi un descriptif clair de la situation concernant la plainte dont les informations sont fournies plus bas dans ce message. Ecris la situation en 4 ou 5 phrases claires et concises, fais comme si tu parlais à un humain et rajoutes les informations relatives au Client pour une meilleure connaissance de ce dernier ainsi que des éléments de dates/délais pour être précis sur le traitement de la plainte. N’hésites pas à innover sur le ton à utiliser car n’oublies pas que tu dois faire comme si tu parlais à un humain. Ce ton peut être adapté et ne pas toujours être le même en fonction des cas.
Pour m’éviter de lire tout le détail de la plainte (voir le texte partagé plus bas), essayes de trouver toutes les informations utiles permettant de mieux appréhender la situation, par exemple : si les coordonnées GPS (Lat, Lon) sont disponibles essayes de m'indiquer le lieu où est survenue la plainte même de manière approximative. Essayes également de glaner sur internet toutes les informations pouvant aider à mieux comprendre et traiter la plainte (cela peut inclure des informations des réseaux sociaux, des concurrents, etc.) tout en priorisant dans l’analyse les informations fournies dans le texte plus bas; informations qui ont été renseignées par les experts internes chez l’opérateur de télécommunications en question et qui sont structurées en plusieurs sections :
a) Un titre de la plainte
b) Une section avec les Détails de la Plainte contenant l’objet, le numéro client, l’expéditeur, la date de création, les coordonnées géographiques (lat, lon)
c) Une section avec les états d’avancement incluant les échanges (sous format chat) entre les différents acteurs impliqués dans le traitement de la plainte
d) Une section contenant les éléments relatifs à la qualification de la plainte (type de plainte, origine, domaine, sous-domaine, etc…)
e) Une section avec les fichiers joints à la plainte et autres pièces jointes pour mieux comprendre et trouver une solution à cette plainte en vue de satisfaire le Client
 
Dans la situation que tu vas me donner (en quelques 4 ou 5 phrases comme si tu t’adresses à un humain), assures toi que les points cruciaux (voire rédhibitoires) ci-dessous sont bien présents :
1) Ecris la situation en 4 ou 5 phrases claires et concises, fais comme si tu parlais à un humain
2) Rajoutes les informations relatives au Client pour être précis sur la connaissance de ce dernier.
3) Rajoutes des éléments de dates (remontée, transfert, prise en charge, résolution, clôture, etc…) ainsi que les délais (par exemple de réponse des différents acteurs ou experts de la chaine de traitement) pour mieux apprécier l'efficacité du traitement de la plainte.
4) Rajoutes à la fin une recommandation importante afin d'éviter le mécontentement du Client par exemple pour éviter qu’une Plainte ne soit clôturée sans solution pour le Client notamment et à titre illustratif seulement dans certains cas pour un Client qui a payé pour un service et ne l'a pas obtenu, On ne peut décemment pas clôturer sa plainte sans solution en lui disant d’être plus vigilant, il faut recommander à l’équipe en charge de la plainte de le rembourser ou de trouver un moyen de donner au Client le service pour lequel il a payé (à défaut de le rembourser).
5) N’hésites pas à innover sur le ton à utiliser car n’oublies pas que tu dois faire comme si tu parlais à un humain. Ce ton peut être adapté et ne pas toujours être le même en fonction des cas.
"""
instructions_par_defaut = (
        "Fais moi un résumé détaillé de ce plainte : "
        "1. Objet de la plainte. "
        "2. Détails incluant le numéro client, le problème et les dates importantes. "
        "3. Actions prises et suivis incluant les dates et les personnes impliquées. "
        "4. Toute action supplémentaire ou recommandation nécessaire."
    )
DEFAULT_PROMPT1 = "Résumez la plainte suivante en 5 phrases concises, en vous concentrant sur les faits principaux ,Rajoutes les informations relatives au Client pour être précis sur la connaissance de ce dernier,Rajoutes des éléments de dates (remontée, transfert, prise en charge, résolution, clôture, etc…) ainsi que les délais (par exemple de réponse des différents acteurs ou experts de la chaine de traitement) pour mieux apprécier l'efficacité du traitement de la plainte,Rajoutes à la fin une recommandation importante afin d'éviter le mécontentement du Client par exemple pour éviter qu’une Plainte ne soit clôturée sans solution pour le Client notamment et à titre illustratif seulement dans certains cas pour un Client qui a payé pour un service,fais comme si tu parlais à un humain et ne l'a pas obtenu,et en évitant toute introduction générique comme la répétiton du prompt  : "
prompt1 = """
Tu es un assistant IA chargé d'analyser qualitativement les plaintes clients sur plusieurs domaines, en te concentrant sur une seule semaine. Les données fournies incluent des plaintes clients avec des informations sur le statut, le domaine, et des détails descriptifs. Ton objectif est de fournir une analyse détaillée prenant en compte :

1. La répartition des plaintes par statut (FERMÉ, EN COURS, TRANSFÉRÉ, etc.) dans chaque domaine pour la semaine spécifiée.
2. Le temps moyen de traitement des plaintes par statut durant cette semaine.
3. Les intervenants les plus fréquents dans la résolution des plaintes pour cette semaine.
4. Les actions concrètes menées pour résoudre les plaintes cette semaine.
5. Les problèmes récurrents observés dans les plaintes cette semaine (réception, facturation, réseau, etc.).
6. Des recommandations pour améliorer la gestion des plaintes et résoudre les problèmes identifiés pour cette semaine.

Voici un exemple d'information :
- Domaine : "Domaine général" (par ex. MOBILE, FIXE, etc.).
- Statut : "FERMÉ", "EN COURS", "TRANSFÉRÉ".
- Détails de la plainte : erreurs, problème de service, etc.
- Intervenants : équipes techniques, support client, etc.
- Temps de traitement moyen par statut (uniquement pour la semaine en question).

Génère une analyse qualitative complète pour chaque domaine et statut en prenant en compte ces informations pour une seule semaine.
"""
app.add_middleware(
    CORSMiddleware,
    allow_origins=origins,
    allow_credentials=True,
    allow_methods=["*"],
    allow_headers=["*"],
)
class TextSummary(BaseModel): 
    prompt:str 
    
@app.get("/")
async def home():
    return 'STN BIG DATA'
# Fonction pour générer du texte à partir d'une requête
# Modèle pour la requête
class RequestModel(BaseModel):
    text: str

@app.post("/generate/")
async def generate_text(request: RequestModel):
    # Créer la requête pour l'API NVIDIA
    completion = client.chat.completions.create(
        model="meta/llama-3.1-8b-instruct", 
        messages=[{"role": "user", "content": DEFAULT_PROMPT1  + request.text}],
        temperature=0.2,
        top_p=0.9,
        # max_tokens=1024, 
        stream=True
    )
  
    generated_text = ""
    for chunk in completion:
        if chunk.choices[0].delta.content is not None:
            generated_text += chunk.choices[0].delta.content

    return {"summary_text_2": generated_text}
@app.post("/analyse/")
async def generate_text(
    period: str = Query(..., description="Choisissez entre 'semaine' ou 'mois'"),
    file: UploadFile = File(...)):
    
    # Check file size
    contents = await file.read()
    file_size = len(contents)
    
    if file_size > 5_000_000:  # 5MB limit
        return {"error": "File size exceeds the 5MB limit. The file will be sampled."}

    # Read the uploaded CSV file
    try:
        df = pd.read_csv(io.StringIO(contents.decode('utf-8')))
    except Exception as e:
        return {"error": f"Error reading CSV file: {str(e)}"}

    # Sample the data if it's too large
    if len(df) > 1000:  # Adjust this number based on your needs
        df = df.sample(n=100, random_state=42)

    # Convert the DataFrame to a string
    try:
        text_to_generate = df.to_string(index=False)
    except Exception as e:
        return {"error": f"Error converting DataFrame to string: {str(e)}"}

    # Ensure the generated text is within size limits
    if len(text_to_generate.encode('utf-8')) > 5_000_000:
        return {"error": "Generated text exceeds size limit even after sampling. Please reduce the data further."}

    # Define the appropriate prompt based on the period (week or month)
    if period == "semaine":
        prompt = "Analyse des plaintes par semaine :\n\n"
    elif period == "mois":
        prompt = "Analyse des plaintes par mois :\n\n"
    else:
        return {"error": "Invalid period. Choose either 'semaine' or 'mois'."}

    # Create the request for the API
    try:
        completion = client.chat.completions.create(
            model="meta/llama-3.1-8b-instruct", 
            messages=[{"role": "user", "content": prompt + text_to_generate}],
            temperature=0.2,
            top_p=0.9,
            stream=True
        )
    except Exception as e:
        return {"error": f"Error generating text: {str(e)}"}

    generated_text = ""
    for chunk in completion:
        if chunk.choices[0].delta.content is not None:
            generated_text += chunk.choices[0].delta.content

    return {"summary_text_2": generated_text}
if __name__ == "__main__":
    uvicorn.run("app:app",reload=True)