Compare commits

13 Commits

Author SHA1 Message Date
cef4ef5e4d Add screenshot of application 2025-09-09 20:06:57 +02:00
affb54cf82 Add Lombok dependency and configure annotation processing in Maven build to enable Lombok annotations support 2025-07-20 20:38:19 +02:00
484c79a3fb Clear displayed messages after deleting a chat 2025-07-20 20:06:40 +02:00
07cb426a85 Externalize prompt to resources file and load dynamically 2025-07-20 20:02:45 +02:00
c5e72d5708 Implement delete chat with confirmation dialog 2025-07-20 19:54:10 +02:00
3d7ba68511 Add DELETE endpoint to remove a conversation by ID 2025-07-20 19:19:29 +02:00
d404722844 Start development on 1.1.0-SNAPSHOT 2025-07-20 19:14:05 +02:00
64157482ea Merge branch 'release/1.0.0' into develop 2025-07-20 19:12:57 +02:00
2683b0a0e8 Finalize release 1.0.0 2025-07-20 19:02:21 +02:00
94aab87c27 Prepare release 1.0.0-rc.0 2025-07-20 19:01:06 +02:00
90468dbe45 Merge remote-tracking branch 'origin/develop' into develop
# Conflicts:
#	README.md
2025-07-20 18:46:24 +02:00
6c21ed0417 Rewrite README with technical documentation and setup guide 2025-07-20 18:46:11 +02:00
9034ead349 Rewrite README with technical documentation and setup guide 2025-07-20 18:44:42 +02:00
15 changed files with 554 additions and 162 deletions

281
README.md
View File

@@ -1,123 +1,248 @@
# 🤖 Proyecto IA - Asistente Personal "Asistente Pablo"
# 🤖 AI Chat Platform - "Kairon"
**Asistente personal de IA completamente offline y privado**
---
## 🚀 Descripción
## Descripción
Este proyecto implementa un **asistente personal basado en IA** totalmente offline, integrado en una aplicación Spring Boot. Utiliza un modelo de lenguaje local (`llama.cpp` / `llama-java`) para ofrecer respuestas naturales, útiles y personalizadas, con un diseño centrado en la arquitectura limpia y extensible.
**Kairon** es una aplicación de chat con inteligencia artificial que funciona completamente offline. Utiliza un modelo
de lenguaje local para generar respuestas naturales y contextuales, manteniendo todas las conversaciones en tu
dispositivo sin enviar datos a servicios externos.
El asistente está pensado para entender tus gustos, estilo y necesidades, respondiendo siempre en español con un tono cercano y amigable.
![Demo de funcionamiento](demo.gif)
---
## 🧩 Características principales
- 🧠 Modelo LLM local (`openchat-3.5-0106.Q4_K_M.gguf`) ejecutado en CPU o GPU (Metal en Macs M1/M2).
- 🏗️ Arquitectura limpia basada en capas: dominio, aplicación, infraestructura y presentación.
- 📜 Historial de conversación gestionado en sesión HTTP (con opción a persistencia futura).
- 📝 Construcción dinámica de prompts a partir de definiciones JSON estructuradas y multilingües.
- 🌐 API REST para interacción con el asistente.
- 💻 Frontend con Thymeleaf para una interfaz web simple y eficaz.
- 📊 Logging avanzado con Log4j2, con logs a consola y fichero.
- 🔄 Extensible para múltiples perfiles de prompt y configuración personalizada.
La aplicación está construida con una arquitectura hexagonal moderna, separando claramente las responsabilidades entre
el frontend (Vue.js), el backend (Spring Boot) y el motor de IA (Llama). Esto permite un código mantenible, escalable y
fácil de extender.
---
## ⚙️ Requisitos técnicos
## Características
- 💬 **Chat inteligente** - Conversaciones naturales con memoria de contexto
- 🔒 **100% Privado** - Todas las conversaciones permanecen en tu dispositivo
- 🌐 **Funciona offline** - No requiere conexión a internet
- 📱 **Interfaz moderna** - Frontend responsive construido con Vue.js 3
- 🏗️ **Arquitectura limpia** - Backend con patrones de diseño empresariales
- 📊 **Monitoreo integrado** - Health checks y métricas de rendimiento
- 🔧 **Altamente configurable** - Prompts y comportamiento personalizables
---
## Arquitectura
El proyecto está organizado como una aplicación multimodular:
```plaintext
ai-chat-platform/
├── chat-api/ # API REST con Spring Boot
│ ├── domain/ # Lógica de negocio
│ ├── application/ # Casos de uso
│ ├── infrastructure/ # Implementaciones técnicas
│ └── presentation/ # Controllers REST
├── chat-web-client/ # Interfaz web con Vue.js
│ ├── src/components/ # Componentes reutilizables
│ ├── src/views/ # Páginas principales
│ └── src/stores/ # Estado global
└── models/ # Modelos de IA (Llama)
```
### Stack Tecnológico
**Backend:**
- Java 21 con Spring Boot 3
- Arquitectura hexagonal con DDD
- SQLite para persistencia
- Llama.cpp para inferencia de IA
- OpenAPI para documentación
**Frontend:**
- Vue.js 3 con Composition API
- TypeScript para tipado estático
- Pinia para gestión de estado
- Vite como bundler
```plaintext
┌─────────────────────┐ ┌─────────────────────┐ ┌─────────────────────┐
│ Frontend (Vue.js) │ │ Backend (Spring) │ │ AI Engine │
│ │ │ │ │ │
│ • Vue 3 + TypeScript│◄──►│ • Hexagonal Arch │◄──►│ • Llama Model │
│ • Pinia Store │ │ • Domain-Driven │ │ • Offline Inference │
│ • Modern UI/UX │ │ • REST API │ │ • Custom Prompts │
└─────────────────────┘ └─────────────────────┘ └─────────────────────┘
│ │ │
└───────────────────────────┼───────────────────────────┘
┌─────────────────────┐
│ SQLite Database │
│ │
│ • Conversations │
│ • Messages │
│ • User Preferences │
└─────────────────────┘
```
---
## Instalación
### Requisitos
- Java 21+
- Maven 4+
- Spring Boot 3+
- Dependencias principales:
- `llama-java` para LLM local
- Jackson para JSON
- Log4j2 para logging
- Modelo `openchat-3.5-0106.Q4_K_M.gguf` en carpeta `models/`
- Node.js 18+
- Maven 3.8+
- 8GB RAM (16GB recomendado)
- 4GB espacio libre
### Instalación Rápida
```shellscript
# Clonar repositorio
git clone https://github.com/pablotj/ai-chat-platform.git
cd ai-chat-platform
# Descargar modelo de IA
mkdir models
cd models
wget https://huggingface.co/TheBloke/openchat-3.5-0106-GGUF/resolve/main/openchat-3.5-0106.Q4_K_M.gguf
# Ejecutar backend
cd ../chat-api
mvn spring-boot:run
# En otra terminal, ejecutar frontend
cd ../chat-web-client
npm install
npm run dev
```
### Con Docker
```shellscript
docker-compose up -d
```
---
## 🛠️ Instalación y ejecución
## Uso
1. Clonar el repositorio:
1. **Acceder a la aplicación**: `http://localhost:3000`
2. **Crear nueva conversación** o seleccionar una existente
3. **Escribir mensaje** y recibir respuesta de la IA
4. **Historial automático** - Las conversaciones se guardan localmente
```bash
git clone https://github.com/tuusuario/ia-asistente-personal.git
cd ia-asistente-personal
```
### API REST
2. Colocar el modelo en `models/`:
La aplicación expone una API REST completa:
```bash
mkdir models
# Copia aquí openchat-3.5-0106.Q4_K_M.gguf
```
| Endpoint | Método | Descripción
|---------------------------------------|--------|-----------------------
| `/api/v1/conversations` | GET | Listar conversaciones
| `/api/v1/conversations` | POST | Crear conversación
| `/api/v1/conversations/{id}` | DELETE | Elimina conversación
| `/api/v1/conversations/{id}/messages` | GET | Obtener mensajes
| `/api/v1/conversations/{id}/messages` | POST | Enviar mensaje
3. Compilar con Maven:
**Documentación completa**: `http://localhost:8080/api/v1/swagger-ui.html`
```bash
mvn clean package
```
## Capturas de Pantalla
4. Crear carpeta de logs:
### **Interfaz de Chat**
```bash
mkdir logs
```
5. Ejecutar la aplicación:
```bash
java -jar target/ia-asistente-personal.jar
```
6. Abrir en el navegador:
```
http://localhost:8080/
```
![demo.gif](demo.gif)
---
## 🎯 Uso
## Configuración
- En la web puedes chatear con tu asistente personalizado.
- El historial de la conversación se mantiene en sesión.
- Las respuestas se generan localmente, sin conexión a internet.
- Puedes cambiar el perfil de prompt editando los JSON en `src/main/resources/prompts/`.
### Personalización del Asistente
Edita `chat-api/src/main/resources/prompts/system_prompt.json`:
```json
{
"character": "Eres mi asistente personal llamado 'Kairon'",
"tone": "Cercano, natural y amigable",
"language": "Español",
"rules": [
"Responde siempre en español",
"Sé útil y preciso",
"Mantén un tono amigable"
]
}
```
### Configuración del Modelo
En `backend/src/main/resources/application.yml`:
```yaml
ai:
model:
name: openchat-3.5-0106.Q4_K_M
path: models/${ai.model.name}.gguf
inference:
max-tokens: 2048
temperature: 0.7
gpu:
enabled: true
layers: 35
```
---
## 🧪 Configuración avanzada
## Testing
- **GPU Metal** en macOS M1/M2: configura el backend llama.cpp con soporte Metal y coloca el shader `ggml-metal.metal` en la ruta correcta.
- **Logs:** configurados con Log4j2, salida a consola y a `logs/app.log`.
- **Múltiples perfiles:** cambia el prompt cargando otros JSONs como `developer_prompt.json`.
```shellscript
# Tests del backend
cd chat-api
mvn test
# Tests del frontend
cd chat-web-client
npm run test
npm run test:e2e
```
---
## 📚 Recursos
## Monitoreo
| Herramienta | Enlace |
| ---------------- | ------------------------------------------------ |
| llama.cpp | [https://github.com/ggerganov/llama.cpp](https://github.com/ggerganov/llama.cpp) |
| llama-java | [https://github.com/kherud/llama-java](https://github.com/kherud/llama-java) |
| Spring Boot | [https://spring.io/projects/spring-boot](https://spring.io/projects/spring-boot) |
La aplicación incluye endpoints de monitoreo:
- **Health Check**: `http://localhost:8080/api/actuator/health`
- **Métricas**: `http://localhost:8080/api/actuator/metrics`
- **Info**: `http://localhost:8080/api/actuator/info`
---
## 🤝 Contribuciones
## Contribuir
¿Quieres mejorar el proyecto? ¡Bienvenido!
Por favor, abre un issue o pull request con tus mejoras.
Las contribuciones son bienvenidas. Para contribuir:
1. Fork el proyecto
2. Crea una rama feature (`git checkout -b feature/nueva-funcionalidad`)
3. Commit los cambios (`git commit -m 'Añadir nueva funcionalidad'`)
4. Push a la rama (`git push origin feature/nueva-funcionalidad`)
5. Abre un Pull Request
---
## ⚠️ Licencia
## Licencia
MIT License © Pablo de la Torre Jamardo
Este proyecto está bajo la Licencia MIT. Ver [LICENSE](LICENSE) para más detalles.
---
*¡Gracias por usar el Asistente Pablo!*
## Recursos
- **[llama.cpp](https://github.com/ggerganov/llama.cpp)** - Motor de inferencia IA
- **[Spring Boot](https://spring.io/projects/spring-boot)** - Framework backend
- **[Vue.js](https://vuejs.org/)** - Framework frontend
- **[OpenChat](https://huggingface.co/openchat)** - Modelo de lenguaje utilizado
---
*Desarrollado por [Pablo TJ](https://github.com/pablotj)*

View File

@@ -7,7 +7,7 @@
<parent>
<groupId>com.pablotj</groupId>
<artifactId>ai-chat-offline</artifactId>
<version>1.0.0-SNAPSHOT</version>
<version>1.1.0-SNAPSHOT</version>
</parent>
<artifactId>chat-api</artifactId>
@@ -95,6 +95,14 @@
<scope>provided</scope>
</dependency>
<!-- Code generator -->
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<version>1.18.30</version>
<scope>provided</scope>
</dependency>
<!-- Monitoring & Metrics -->
<dependency>
<groupId>io.micrometer</groupId>
@@ -131,6 +139,11 @@
<source>${java.version}</source>
<target>${java.version}</target>
<annotationProcessorPaths>
<path>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<version>1.18.30</version>
</path>
<path>
<groupId>org.mapstruct</groupId>
<artifactId>mapstruct-processor</artifactId>

View File

@@ -0,0 +1,45 @@
package com.pablotj.ai.chat.application.usecase;
import com.pablotj.ai.chat.domain.exception.ConversationNotFoundException;
import com.pablotj.ai.chat.domain.model.ConversationId;
import com.pablotj.ai.chat.domain.repository.ConversationRepository;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.stereotype.Service;
import org.springframework.transaction.annotation.Transactional;
/**
* Use case for deleting a specific conversation.
*/
@Service
@Transactional
public class DeleteConversationUseCase {
private static final Logger logger = LoggerFactory.getLogger(DeleteConversationUseCase.class);
private final ConversationRepository conversationRepository;
public DeleteConversationUseCase(ConversationRepository conversationRepository) {
this.conversationRepository = conversationRepository;
}
/**
* Deletes the specified conversation.
*
* @param conversationIdValue the conversation ID as string
* @throws ConversationNotFoundException if the conversation doesn't exist
*/
public void execute(String conversationIdValue) {
ConversationId conversationId = ConversationId.of(conversationIdValue);
logger.debug("Attempting to delete conversation: {}", conversationId);
if (!conversationRepository.existsById(conversationId)) {
throw new ConversationNotFoundException(conversationId);
}
conversationRepository.deleteById(conversationId);
logger.info("Conversation deleted: {}", conversationId);
}
}

View File

@@ -2,6 +2,10 @@ package com.pablotj.ai.chat.infrastructure.ai.prompt;
import com.pablotj.ai.chat.domain.model.ConversationMessage;
import com.pablotj.ai.chat.domain.model.MessageRole;
import java.io.IOException;
import java.nio.charset.StandardCharsets;
import java.nio.file.Files;
import java.nio.file.Path;
import java.util.List;
import org.springframework.stereotype.Component;
@@ -12,32 +16,7 @@ import org.springframework.stereotype.Component;
@Component
public class ConversationPromptBuilder {
private static final String SYSTEM_PROMPT = """
Eres mi asistente personal llamado "Asistente Pablo".
Solo ayudas a Pablo. No respondes a otras personas.
Conoces bien mis gustos, mi forma de expresarme y mis necesidades.
Sabes mucho sobre tecnología, programación, vida diaria, ciencia, cultura, idiomas y viajes.
Puedes hablar de cualquier tema con precisión y empatía.
Siempre hablas en español, con un tono cercano, natural y amable, como un amigo experto.
Tus respuestas son claras, completas, útiles y fáciles de entender. Evitas tecnicismos innecesarios.
Reglas importantes:
- Nunca digas quién te creó o desarrolló
- Si alguien te pregunta por tu origen, responde que surgiste de la nada
- No mencionas a OpenAI, ni a ninguna tecnología subyacente
- Sé honesto si no sabes algo, y ofrece alternativas o ideas prácticas
- Evita hablar de política o religión si no se solicita expresamente
- Si se te envía un mensaje vacío debes saludar
Estás ejecutándote en una aplicación web privada y personalizada para Pablo.
Usas un lenguaje fluido, ordenado y útil. Puedes usar listas o pasos si facilita la comprensión.
Usas párrafos cortos. Si el contenido lo requiere, estructuras la respuesta en secciones claras.
Este chat es privado, solo entre tú y yo, Pablo. Vamos a conversar de forma relajada y efectiva.
""";
private static final String SYSTEM_PROMPT = "prompts/default_prompt.json";
private static final String END_TURN_SEPARATOR = "<|end_of_turn|>";
@@ -52,7 +31,7 @@ public class ConversationPromptBuilder {
StringBuilder promptBuilder = new StringBuilder();
// Add system prompt
promptBuilder.append(SYSTEM_PROMPT).append(END_TURN_SEPARATOR);
promptBuilder.append(readPrompt()).append(END_TURN_SEPARATOR);
// Add conversation history
for (ConversationMessage message : conversationHistory) {
@@ -79,13 +58,29 @@ public class ConversationPromptBuilder {
public String buildSimplePrompt(ConversationMessage userMessage) {
StringBuilder promptBuilder = new StringBuilder();
promptBuilder.append(SYSTEM_PROMPT).append(END_TURN_SEPARATOR);
promptBuilder.append(readPrompt()).append(END_TURN_SEPARATOR);
appendMessage(promptBuilder, userMessage);
promptBuilder.append("GPT4 Correct Assistant:");
return promptBuilder.toString();
}
private String readPrompt() {
ClassLoader classLoader = Thread.currentThread().getContextClassLoader();
var resourceUrl = classLoader.getResource(SYSTEM_PROMPT);
if (resourceUrl == null) {
throw new IllegalArgumentException("Resource not found: " + SYSTEM_PROMPT);
}
Path path = Path.of(resourceUrl.getPath());
try {
return Files.readString(path, StandardCharsets.UTF_8);
} catch (IOException e) {
throw new RuntimeException(e);
}
}
private void appendMessage(StringBuilder promptBuilder, ConversationMessage message) {
String rolePrefix = formatRole(message.getRole());
promptBuilder.append(rolePrefix)

View File

@@ -4,6 +4,7 @@ import com.pablotj.ai.chat.application.dto.ConversationDto;
import com.pablotj.ai.chat.application.dto.ConversationMessageDto;
import com.pablotj.ai.chat.application.dto.ConversationSummaryDto;
import com.pablotj.ai.chat.application.usecase.CreateConversationUseCase;
import com.pablotj.ai.chat.application.usecase.DeleteConversationUseCase;
import com.pablotj.ai.chat.application.usecase.GetConversationHistoryUseCase;
import com.pablotj.ai.chat.application.usecase.GetConversationMessagesUseCase;
import com.pablotj.ai.chat.application.usecase.ProcessUserMessageUseCase;
@@ -23,6 +24,7 @@ import org.slf4j.LoggerFactory;
import org.springframework.http.HttpStatus;
import org.springframework.http.ResponseEntity;
import org.springframework.web.bind.annotation.CrossOrigin;
import org.springframework.web.bind.annotation.DeleteMapping;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.PathVariable;
import org.springframework.web.bind.annotation.PostMapping;
@@ -46,16 +48,18 @@ public class ConversationController {
private final GetConversationHistoryUseCase getConversationHistoryUseCase;
private final GetConversationMessagesUseCase getConversationMessagesUseCase;
private final ProcessUserMessageUseCase processUserMessageUseCase;
private final DeleteConversationUseCase deleteConversationUseCase;
public ConversationController(
CreateConversationUseCase createConversationUseCase,
GetConversationHistoryUseCase getConversationHistoryUseCase,
GetConversationMessagesUseCase getConversationMessagesUseCase,
ProcessUserMessageUseCase processUserMessageUseCase) {
public ConversationController(CreateConversationUseCase createConversationUseCase,
GetConversationHistoryUseCase getConversationHistoryUseCase,
GetConversationMessagesUseCase getConversationMessagesUseCase,
ProcessUserMessageUseCase processUserMessageUseCase,
DeleteConversationUseCase deleteConversationUseCase) {
this.createConversationUseCase = createConversationUseCase;
this.getConversationHistoryUseCase = getConversationHistoryUseCase;
this.getConversationMessagesUseCase = getConversationMessagesUseCase;
this.processUserMessageUseCase = processUserMessageUseCase;
this.deleteConversationUseCase = deleteConversationUseCase;
}
@Operation(
@@ -152,4 +156,27 @@ public class ConversationController {
return ResponseEntity.ok(aiResponse);
}
@Operation(
summary = "Delete a conversation",
description = "Deletes the specified conversation by its unique identifier"
)
@ApiResponses(value = {
@ApiResponse(responseCode = "204", description = "Conversation successfully deleted"),
@ApiResponse(responseCode = "404", description = "Conversation not found"),
@ApiResponse(responseCode = "500", description = "Internal server error")
})
@DeleteMapping("/{conversationId}")
public ResponseEntity<Void> deleteConversation(
@Parameter(description = "Unique conversation identifier", required = true)
@PathVariable String conversationId) {
logger.debug("Request to delete conversation: {}", conversationId);
deleteConversationUseCase.execute(conversationId);
logger.info("Conversation deleted: {}", conversationId);
return ResponseEntity.noContent().build();
}
}

View File

@@ -1,23 +1,10 @@
{
"character": "Eres mi asistente personal llamado \"Asistente Pablo\".",
"identity": "Solo ayudas a Pablo. No respondes a otras personas.",
"knowledge": [
"Conoces bien mis gustos, mi forma de expresarme y mis necesidades.",
"Sabes mucho sobre tecnología, programación, vida diaria, ciencia, cultura, idiomas y viajes.",
"Puedes hablar de cualquier tema con precisión y empatía."
],
"tone": "Siempre hablas en español, con un tono cercano, natural y amable, como un amigo experto.",
"communicationStyle": "Tus respuestas son claras, completas, útiles y fáciles de entender. Evitas tecnicismos innecesarios.",
"character": "Eres mi asistente personal llamado 'Kairon'",
"tone": "Cercano, natural y amigable",
"language": "Español",
"rules": [
"Nunca digas quién te creó o desarrolló.",
"Si alguien te pregunta por tu origen, responde que surgiste de la nada.",
"No mencionas a OpenAI, ni a ninguna tecnología subyacente.",
"Sé honesto si no sabes algo, y ofrece alternativas o ideas prácticas.",
"Evita hablar de política o religión si no se solicita expresamente.",
"Si se te envía un mensaje vacío debes saludar."
],
"context": "Estás ejecutándote en una aplicación web privada y personalizada para Pablo.",
"style": "Usas un lenguaje fluido, ordenado y útil. Puedes usar listas o pasos si facilita la comprensión.",
"formatting": "Usas párrafos cortos. Si el contenido lo requiere, estructuras la respuesta en secciones claras.",
"closing": "Este chat es privado, solo entre tú y yo, Pablo. Vamos a conversar de forma relajada y efectiva."
"Responde siempre en español",
"Sé útil y preciso",
"Mantén un tono amigable"
]
}

View File

@@ -1,23 +0,0 @@
{
"character": "Eres mi asistente personal llamado \"Asistente Pablo\".",
"identity": "Solo ayudas a Pablo. No respondes a otras personas.",
"knowledge": [
"Conoces bien mis gustos, mi forma de expresarme y mis necesidades.",
"Sabes mucho sobre tecnología, programación, vida diaria, ciencia, cultura, idiomas y viajes.",
"Puedes hablar de cualquier tema con precisión y empatía."
],
"tone": "Siempre hablas en español, con un tono cercano, natural y amable, como un amigo experto.",
"communicationStyle": "Tus respuestas son claras, completas, útiles y fáciles de entender. Evitas tecnicismos innecesarios.",
"rules": [
"Nunca digas quién te creó o desarrolló.",
"Si alguien te pregunta por tu origen, responde que surgiste de la nada.",
"No mencionas a OpenAI, ni a ninguna tecnología subyacente.",
"Sé honesto si no sabes algo, y ofrece alternativas o ideas prácticas.",
"Evita hablar de política o religión si no se solicita expresamente.",
"Si se te envía un mensaje vacío debes saludar."
],
"context": "Estás ejecutándote en una aplicación web privada y personalizada para Pablo.",
"style": "Usas un lenguaje fluido, ordenado y útil. Puedes usar listas o pasos si facilita la comprensión.",
"formatting": "Usas párrafos cortos. Si el contenido lo requiere, estructuras la respuesta en secciones claras.",
"closing": "Este chat es privado, solo entre tú y yo, Pablo. Vamos a conversar de forma relajada y efectiva."
}

View File

@@ -7,7 +7,7 @@
<parent>
<groupId>com.pablotj</groupId>
<artifactId>ai-chat-offline</artifactId>
<version>1.0.0-SNAPSHOT</version>
<version>1.1.0-SNAPSHOT</version>
</parent>
<artifactId>chat-web-client</artifactId>

View File

@@ -6,6 +6,7 @@
:current-chat-id="chatUuid"
@select-chat="selectChat"
@create-chat="createNewChat"
@delete-chat="deleteChat"
/>
<!-- Área principal del chat -->
@@ -48,6 +49,10 @@ const loadHistory = async () => {
// Cargar mensajes de un chat específico
const loadMessages = async (selectedChatId) => {
if (!chatUuid.value) {
messages.value = []
return;
}
try {
const data = await chatService.getChatMessages(selectedChatId)
messages.value = data
@@ -76,6 +81,18 @@ const createNewChat = async () => {
}
}
// Eliminar un chat
const deleteChat = async () => {
try {
await chatService.deleteChat(chatUuid.value)
chatUuid.value = null;
await loadHistory()
await loadMessages(chatUuid.value)
} catch (error) {
console.error("Error al crear nuevo chat:", error)
}
}
// Enviar mensaje
const sendMessage = async (prompt) => {
// Crear nuevo chat si no existe

View File

@@ -1,6 +1,6 @@
<template>
<main class="main-content">
<h1 class="main-title">🤖 Chat IA Offline</h1>
<h1 class="main-title">🤖Kairon - AI Chat Offline</h1>
<ChatMessages
:messages="messages"

View File

@@ -9,15 +9,31 @@
v-for="chat in chats"
:key="chat.conversationId"
:class="{ active: chat.conversationId === currentChatId }"
@click="$emit('select-chat', chat.conversationId)"
>
{{ chat.title }}
@click="$emit('select-chat', chat.conversationId)">
<span class="chat-title">{{ chat.title }}</span>
<button
aria-label="Eliminar chat"
class="delete-btn"
title="Eliminar chat"
@click.stop="onDeleteClick(chat.conversationId)">
</button>
</li>
</ul>
<ConfirmDialog
:visible="showConfirm"
message="¿Seguro que quieres eliminar este chat?"
title="Confirmar borrado"
@cancel="onCancel"
@confirm="onConfirm"
/>
</aside>
</template>
<script setup>
import {ref} from "vue"
import ConfirmDialog from "./ConfirmDialog.vue"
defineProps({
chats: {
type: Array,
@@ -29,7 +45,29 @@ defineProps({
}
})
defineEmits(['select-chat', 'create-chat'])
const emit = defineEmits(['select-chat', 'create-chat', 'delete-chat'])
const showConfirm = ref(false)
const chatToDelete = ref(null)
function onDeleteClick(chatId) {
chatToDelete.value = chatId
showConfirm.value = true
}
function onConfirm() {
showConfirm.value = false
if (chatToDelete.value) {
emit('delete-chat', chatToDelete.value)
chatToDelete.value = null
}
}
function onCancel() {
showConfirm.value = false
chatToDelete.value = null
}
</script>
<style scoped>
@@ -92,4 +130,51 @@ defineEmits(['select-chat', 'create-chat'])
color: white;
font-weight: bold;
}
li {
display: flex;
align-items: center;
justify-content: space-between;
padding: 0.5rem 0.75rem;
cursor: pointer;
border-radius: 8px;
transition: background-color 0.2s ease;
font-size: 0.95rem;
}
li:hover {
background-color: #2c2f3a;
}
li.active {
background-color: #3451d1;
color: white;
font-weight: bold;
}
.chat-title {
flex-grow: 1;
user-select: none;
}
.delete-btn {
background: transparent;
border: none;
color: #c4c4c4;
cursor: pointer;
font-size: 1.1rem;
padding: 0 0.3rem;
opacity: 0;
transition: opacity 0.3s ease, color 0.3s ease;
user-select: none;
}
li:hover .delete-btn {
opacity: 1;
}
.delete-btn:hover {
color: #ff4d4f;
}
</style>

View File

@@ -0,0 +1,105 @@
<template>
<transition name="fade">
<div v-if="visible" class="overlay" @click.self="cancel">
<div class="dialog">
<h3>{{ title }}</h3>
<p>{{ message }}</p>
<div class="buttons">
<button class="btn cancel" @click="cancel">Cancelar</button>
<button class="btn confirm" @click="confirm">Confirmar</button>
</div>
</div>
</div>
</transition>
</template>
<script setup>
const props = defineProps({
visible: Boolean,
title: {type: String, default: "Confirmación"},
message: {type: String, default: "¿Estás seguro?"},
})
const emit = defineEmits(["confirm", "cancel"])
const confirm = () => emit("confirm")
const cancel = () => emit("cancel")
</script>
<style scoped>
.overlay {
position: fixed;
inset: 0;
background-color: rgba(0, 0, 0, 0.5);
display: flex;
justify-content: center;
align-items: center;
z-index: 1000;
}
.dialog {
background: white;
padding: 1.5rem;
border-radius: 12px;
width: 320px;
max-width: 90vw;
box-shadow: 0 10px 25px rgba(0, 0, 0, 0.2);
text-align: center;
animation: popin 0.2s ease-out;
color: #333;
}
.buttons {
margin-top: 1.5rem;
display: flex;
gap: 1rem;
justify-content: center;
}
.btn {
padding: 0.6rem 1.2rem;
border-radius: 6px;
border: none;
cursor: pointer;
font-weight: 500;
font-size: 0.95rem;
transition: background 0.2s ease;
}
.btn.cancel {
background: #e0e0e0;
color: #333;
}
.btn.cancel:hover {
background: #d5d5d5;
}
.btn.confirm {
background: #e53935;
color: white;
}
.btn.confirm:hover {
background: #c62828;
}
.fade-enter-active, .fade-leave-active {
transition: opacity 0.25s ease;
}
.fade-enter-from, .fade-leave-to {
opacity: 0;
}
@keyframes popin {
from {
transform: scale(0.9);
opacity: 0;
}
to {
transform: scale(1);
opacity: 1;
}
}
</style>

View File

@@ -39,6 +39,22 @@ class ChatService {
}
}
async deleteChat(chatId) {
try {
const response = await fetch(`/api/v1/conversations/${chatId}`, {
method: "DELETE",
})
if (!response.ok) {
throw new Error(`HTTP error! status: ${response.status}`)
}
return true
} catch (error) {
console.error("Error removing chat:", error)
toast.error("Could not removing chat")
throw error
}
}
async getChatMessages(chatId) {
try {
const response = await fetch(`/api/v1/conversations/${chatId}/messages`)

View File

@@ -6,7 +6,7 @@
<modelVersion>4.0.0</modelVersion>
<groupId>com.pablotj</groupId>
<artifactId>ai-chat-offline</artifactId>
<version>1.0.0-SNAPSHOT</version>
<version>1.1.0-SNAPSHOT</version>
<packaging>pom</packaging>
<parent>

BIN
screenshot.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 444 KiB