AIdeaText commited on
Commit
eeadede
·
verified ·
1 Parent(s): 7dfad7a

Update modules/ui.py

Browse files
Files changed (1) hide show
  1. modules/ui.py +133 -74
modules/ui.py CHANGED
@@ -194,101 +194,160 @@ def display_chat_interface():
194
 
195
  ################################################################################
196
  # Funciones para Cosmos DB MongoDB API (análisis de texto)
197
- def display_student_progress(username, lang_code='es'):
198
- logger.info(f"Intentando mostrar progreso para el usuario: {username}")
199
- student_data = get_student_data(username)
200
 
201
- if student_data is None:
202
- logger.warning(f"No se pudieron recuperar datos para el usuario: {username}")
203
- st.warning("No se encontraron datos para este estudiante.")
204
- st.info("Intenta realizar algunos análisis de texto primero.")
205
- return
206
 
207
- logger.info(f"Datos recuperados para {username}: {student_data}")
208
 
209
- st.title(f"Progreso de {username}")
210
 
211
- if student_data['entries_count'] == 0:
212
- st.warning("No se encontraron entradas para este estudiante.")
213
- st.info("Intenta realizar algunos análisis de texto primero.")
214
- return
215
 
216
  # Mostrar el conteo de palabras
217
- if student_data['word_count']:
218
- with st.expander("Total de palabras por categoría gramatical", expanded=False):
219
- df = pd.DataFrame(list(student_data['word_count'].items()), columns=['category', 'count'])
220
- df['label'] = df.apply(lambda x: f"{POS_TRANSLATIONS[lang_code].get(x['category'], x['category'])}", axis=1)
221
- df = df.sort_values('count', ascending=False)
222
 
223
- fig, ax = plt.subplots(figsize=(12, 6))
224
- bars = ax.bar(df['label'], df['count'], color=df['category'])
225
 
226
- ax.set_xlabel('Categoría Gramatical')
227
- ax.set_ylabel('Cantidad de Palabras')
228
- ax.set_title('Total de palabras por categoría gramatical')
229
- plt.xticks(rotation=45, ha='right')
230
 
231
- for bar in bars:
232
- height = bar.get_height()
233
- ax.text(bar.get_x() + bar.get_width()/2., height, f'{height}', ha='center', va='bottom')
234
 
235
- plt.tight_layout()
236
- st.pyplot(fig)
237
 
238
  # Mostrar análisis morfosintáctico
239
- morphosyntax_entries = [entry for entry in student_data['entries'] if entry['analysis_type'] == 'morphosyntax']
240
- if morphosyntax_entries:
241
- with st.expander("Análisis Morfosintáctico - Diagramas de Arco", expanded=False):
242
- for i, entry in enumerate(morphosyntax_entries):
243
- st.subheader(f"Análisis {i+1} - {entry['timestamp']}")
244
- st.write(entry['text'])
245
- for j, diagram in enumerate(entry.get('arc_diagrams', [])):
246
- st.subheader(f"Diagrama de Arco {j+1}")
247
- st.write(diagram, unsafe_allow_html=True)
248
 
249
  # Mostrar análisis semántico
250
- if student_data['semantic_analyses']:
251
- with st.expander("Análisis Semántico - Diagramas de Red", expanded=False):
252
- for i, entry in enumerate(student_data['semantic_analyses']):
253
- st.subheader(f"Análisis Semántico {i+1} - {entry['timestamp']}")
254
- st.write(entry['text'])
255
- if 'network_diagram' in entry:
256
- image_bytes = base64.b64decode(entry['network_diagram'])
257
- st.image(image_bytes)
258
 
259
  # Mostrar análisis del discurso
260
- if student_data['discourse_analyses']:
261
- with st.expander("Análisis del Discurso - Comparación de Grafos", expanded=False):
262
- for i, entry in enumerate(student_data['discourse_analyses']):
263
- st.subheader(f"Análisis del Discurso {i+1} - {entry['timestamp']}")
264
- st.write("Texto del documento patrón:")
265
- st.write(entry.get('text1', 'No disponible'))
266
- st.write("Texto del documento comparado:")
267
- st.write(entry.get('text2', 'No disponible'))
268
- if 'graph1' in entry:
269
- st.image(base64.b64decode(entry['graph1']))
270
- if 'graph2' in entry:
271
- st.image(base64.b64decode(entry['graph2']))
272
 
273
  # Mostrar conversaciones del chat
274
- if student_data['chat_history']:
275
- with st.expander("Historial de Conversaciones del Chat", expanded=False):
276
- for i, chat in enumerate(student_data['chat_history']):
277
- st.subheader(f"Conversación {i+1} - {chat['timestamp']}")
278
- for message in chat['messages']:
279
- if message['role'] == 'user':
280
- st.write("Usuario: " + message['content'])
281
- else:
282
- st.write("Asistente: " + message['content'])
283
- st.write("---")
284
- else:
285
- st.warning("No se encontraron entradas para este estudiante.")
286
- st.info("Intenta realizar algunos análisis de texto primero.")
287
 
288
  # Añadir logs para depuración
289
- st.write("Datos del estudiante (para depuración):")
290
- st.json(student_data)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
291
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
292
 
293
  ##################################################################################################
294
  def display_morphosyntax_analysis_interface(nlp_models, lang_code):
 
194
 
195
  ################################################################################
196
  # Funciones para Cosmos DB MongoDB API (análisis de texto)
197
+ #def display_student_progress(username, lang_code='es'):
198
+ #logger.info(f"Intentando mostrar progreso para el usuario: {username}")
199
+ #student_data = get_student_data(username)
200
 
201
+ #if student_data is None:
202
+ # logger.warning(f"No se pudieron recuperar datos para el usuario: {username}")
203
+ # st.warning("No se encontraron datos para este estudiante.")
204
+ # st.info("Intenta realizar algunos análisis de texto primero.")
205
+ # return
206
 
207
+ #logger.info(f"Datos recuperados para {username}: {student_data}")
208
 
209
+ #st.title(f"Progreso de {username}")
210
 
211
+ #if student_data['entries_count'] == 0:
212
+ # st.warning("No se encontraron entradas para este estudiante.")
213
+ # st.info("Intenta realizar algunos análisis de texto primero.")
214
+ # return
215
 
216
  # Mostrar el conteo de palabras
217
+ #if student_data['word_count']:
218
+ # with st.expander("Total de palabras por categoría gramatical", expanded=False):
219
+ # df = pd.DataFrame(list(student_data['word_count'].items()), columns=['category', 'count'])
220
+ # df['label'] = df.apply(lambda x: f"{POS_TRANSLATIONS[lang_code].get(x['category'], x['category'])}", axis=1)
221
+ # df = df.sort_values('count', ascending=False)
222
 
223
+ # fig, ax = plt.subplots(figsize=(12, 6))
224
+ # bars = ax.bar(df['label'], df['count'], color=df['category'])
225
 
226
+ # ax.set_xlabel('Categoría Gramatical')
227
+ # ax.set_ylabel('Cantidad de Palabras')
228
+ # ax.set_title('Total de palabras por categoría gramatical')
229
+ # plt.xticks(rotation=45, ha='right')
230
 
231
+ # for bar in bars:
232
+ # height = bar.get_height()
233
+ # ax.text(bar.get_x() + bar.get_width()/2., height, f'{height}', ha='center', va='bottom')
234
 
235
+ # plt.tight_layout()
236
+ # st.pyplot(fig)
237
 
238
  # Mostrar análisis morfosintáctico
239
+ #morphosyntax_entries = [entry for entry in student_data['entries'] if entry['analysis_type'] == 'morphosyntax']
240
+ #if morphosyntax_entries:
241
+ # with st.expander("Análisis Morfosintáctico - Diagramas de Arco", expanded=False):
242
+ # for i, entry in enumerate(morphosyntax_entries):
243
+ # st.subheader(f"Análisis {i+1} - {entry['timestamp']}")
244
+ # st.write(entry['text'])
245
+ # for j, diagram in enumerate(entry.get('arc_diagrams', [])):
246
+ # st.subheader(f"Diagrama de Arco {j+1}")
247
+ # st.write(diagram, unsafe_allow_html=True)
248
 
249
  # Mostrar análisis semántico
250
+ #if student_data['semantic_analyses']:
251
+ # with st.expander("Análisis Semántico - Diagramas de Red", expanded=False):
252
+ # for i, entry in enumerate(student_data['semantic_analyses']):
253
+ # st.subheader(f"Análisis Semántico {i+1} - {entry['timestamp']}")
254
+ # st.write(entry['text'])
255
+ # if 'network_diagram' in entry:
256
+ # image_bytes = base64.b64decode(entry['network_diagram'])
257
+ # st.image(image_bytes)
258
 
259
  # Mostrar análisis del discurso
260
+ #if student_data['discourse_analyses']:
261
+ # with st.expander("Análisis del Discurso - Comparación de Grafos", expanded=False):
262
+ # for i, entry in enumerate(student_data['discourse_analyses']):
263
+ # st.subheader(f"Análisis del Discurso {i+1} - {entry['timestamp']}")
264
+ # st.write("Texto del documento patrón:")
265
+ # st.write(entry.get('text1', 'No disponible'))
266
+ # st.write("Texto del documento comparado:")
267
+ # st.write(entry.get('text2', 'No disponible'))
268
+ # if 'graph1' in entry:
269
+ # st.image(base64.b64decode(entry['graph1']))
270
+ # if 'graph2' in entry:
271
+ # st.image(base64.b64decode(entry['graph2']))
272
 
273
  # Mostrar conversaciones del chat
274
+ #if student_data['chat_history']:
275
+ # with st.expander("Historial de Conversaciones del Chat", expanded=False):
276
+ # for i, chat in enumerate(student_data['chat_history']):
277
+ # st.subheader(f"Conversación {i+1} - {chat['timestamp']}")
278
+ # for message in chat['messages']:
279
+ # if message['role'] == 'user':
280
+ # st.write("Usuario: " + message['content'])
281
+ # else:
282
+ # st.write("Asistente: " + message['content'])
283
+ # st.write("---")
284
+ #else:
285
+ # st.warning("No se encontraron entradas para este estudiante.")
286
+ # st.info("Intenta realizar algunos análisis de texto primero.")
287
 
288
  # Añadir logs para depuración
289
+ #st.write("Datos del estudiante (para depuración):")
290
+ #st.json(student_data)
291
+
292
+ def display_student_progress(username, lang_code='es'):
293
+ student_data = get_student_data(username)
294
+
295
+ if student_data is None or len(student_data['entries']) == 0:
296
+ st.warning("No se encontraron datos para este estudiante.")
297
+ st.info("Intenta realizar algunos análisis de texto primero.")
298
+ return
299
+
300
+ st.title(f"Progreso de {username}")
301
+
302
+ # Mostrar resumen de actividades
303
+ st.header("Resumen de actividades")
304
+ total_entries = len(student_data['entries'])
305
+ st.write(f"Total de análisis realizados: {total_entries}")
306
 
307
+ # Mostrar gráfico de tipos de análisis
308
+ analysis_types = [entry['analysis_type'] for entry in student_data['entries']]
309
+ analysis_counts = pd.Series(analysis_types).value_counts()
310
+
311
+ fig, ax = plt.subplots()
312
+ analysis_counts.plot(kind='bar', ax=ax)
313
+ ax.set_title("Tipos de análisis realizados")
314
+ ax.set_xlabel("Tipo de análisis")
315
+ ax.set_ylabel("Cantidad")
316
+ st.pyplot(fig)
317
+
318
+ # Mostrar últimos análisis
319
+ st.header("Últimos análisis realizados")
320
+ for i, entry in enumerate(student_data['entries'][:5]): # Mostrar los últimos 5 análisis
321
+ with st.expander(f"Análisis {i+1} - {entry['timestamp']}"):
322
+ st.write(f"Tipo: {entry['analysis_type']}")
323
+ st.write(f"Texto: {entry['text']}")
324
+
325
+ if entry['analysis_type'] == 'morphosyntax':
326
+ if entry['word_count']:
327
+ st.subheader("Conteo de palabras por categoría")
328
+ word_count_df = pd.DataFrame.from_dict(entry['word_count'], orient='index', columns=['Cantidad'])
329
+ st.dataframe(word_count_df)
330
+
331
+ if entry['arc_diagrams']:
332
+ st.subheader("Diagrama de arco")
333
+ st.write(entry['arc_diagrams'][0], unsafe_allow_html=True)
334
+
335
+ # Mostrar progreso a lo largo del tiempo
336
+ st.header("Progreso a lo largo del tiempo")
337
+ dates = [datetime.fromisoformat(entry['timestamp']) for entry in student_data['entries']]
338
+ analysis_counts = pd.Series(dates).value_counts().sort_index()
339
+
340
+ fig, ax = plt.subplots()
341
+ analysis_counts.plot(kind='line', ax=ax)
342
+ ax.set_title("Análisis realizados a lo largo del tiempo")
343
+ ax.set_xlabel("Fecha")
344
+ ax.set_ylabel("Cantidad de análisis")
345
+ st.pyplot(fig)
346
+
347
+ # Añadir logs para depuración
348
+ if st.checkbox("Mostrar datos de depuración"):
349
+ st.write("Datos del estudiante (para depuración):")
350
+ st.json(student_data)
351
 
352
  ##################################################################################################
353
  def display_morphosyntax_analysis_interface(nlp_models, lang_code):