6005-backupLabeler #2276
|
@ -1,4 +1,6 @@
|
||||||
node_modules
|
node_modules
|
||||||
print/node_modules
|
print/node_modules
|
||||||
front/node_modules
|
front
|
||||||
services
|
db
|
||||||
|
e2e
|
||||||
|
storage
|
||||||
|
|
|
@ -16,6 +16,7 @@
|
||||||
},
|
},
|
||||||
"cSpell.words": [
|
"cSpell.words": [
|
||||||
"salix",
|
"salix",
|
||||||
"fdescribe"
|
"fdescribe",
|
||||||
|
"Loggable"
|
||||||
]
|
]
|
||||||
}
|
}
|
||||||
|
|
307
CHANGELOG.md
307
CHANGELOG.md
|
@ -5,280 +5,349 @@ All notable changes to this project will be documented in this file.
|
||||||
The format is based on [Keep a Changelog](https://keepachangelog.com/en/1.0.0/),
|
The format is based on [Keep a Changelog](https://keepachangelog.com/en/1.0.0/),
|
||||||
and this project adheres to [Semantic Versioning](https://semver.org/spec/v2.0.0.html).
|
and this project adheres to [Semantic Versioning](https://semver.org/spec/v2.0.0.html).
|
||||||
|
|
||||||
## [2352.01] - 2023-12-28
|
## [2408.01] - 2024-02-22
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
|
|
||||||
|
### Fixed
|
||||||
|
|
||||||
|
## [2406.01] - 2024-02-08
|
||||||
|
|
||||||
|
### Added
|
||||||
|
|
||||||
|
### Changed
|
||||||
|
|
||||||
|
### Fixed
|
||||||
|
|
||||||
|
## [2404.01] - 2024-01-25
|
||||||
|
|
||||||
|
### Added
|
||||||
|
|
||||||
|
### Changed
|
||||||
|
|
||||||
|
### Fixed
|
||||||
|
|
||||||
|
## [2402.01] - 2024-01-11
|
||||||
|
|
||||||
|
### Added
|
||||||
|
|
||||||
|
### Changed
|
||||||
|
|
||||||
|
### Fixed
|
||||||
|
|
||||||
|
## [2400.01] - 2024-01-04
|
||||||
|
|
||||||
|
### Added
|
||||||
|
|
||||||
|
### Changed
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
|
|
||||||
## [2350.01] - 2023-12-14
|
## [2350.01] - 2023-12-14
|
||||||
|
|
||||||
### Added
|
### Características Añadidas 🆕
|
||||||
### Changed
|
|
||||||
### Fixed
|
|
||||||
|
|
||||||
|
- **Tickets → Expediciones:** Añadido soporte para Viaexpress
|
||||||
|
|
||||||
## [2348.01] - 2023-11-30
|
## [2348.01] - 2023-11-30
|
||||||
|
|
||||||
### Características Añadidas 🆕
|
### Características Añadidas 🆕
|
||||||
- **Tickets → Adelantar:** Permite mover lineas sin generar negativos
|
|
||||||
- **Tickets → Adelantar:** Permite modificar la fecha de los tickets
|
- **Tickets → Adelantar:** Permite mover lineas sin generar negativos
|
||||||
- **Trabajadores → Notificaciones:** Nueva sección (lilium)
|
- **Tickets → Adelantar:** Permite modificar la fecha de los tickets
|
||||||
|
- **Trabajadores → Notificaciones:** Nueva sección (lilium)
|
||||||
|
|
||||||
### Correcciones 🛠️
|
### Correcciones 🛠️
|
||||||
- **Tickets → RocketChat:** Arreglada detección de cambios
|
|
||||||
|
|
||||||
|
- **Tickets → RocketChat:** Arreglada detección de cambios
|
||||||
|
|
||||||
## [2346.01] - 2023-11-16
|
## [2346.01] - 2023-11-16
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
### Changed
|
|
||||||
### Fixed
|
|
||||||
|
|
||||||
|
### Changed
|
||||||
|
|
||||||
|
### Fixed
|
||||||
|
|
||||||
## [2342.01] - 2023-11-02
|
## [2342.01] - 2023-11-02
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Usuarios -> Foto) Se muestra la foto del trabajador
|
|
||||||
### Fixed
|
|
||||||
- (Usuarios -> Historial) Abre el descriptor del usuario correctamente
|
|
||||||
|
|
||||||
|
- (Usuarios -> Foto) Se muestra la foto del trabajador
|
||||||
|
|
||||||
|
### Fixed
|
||||||
|
|
||||||
|
- (Usuarios -> Historial) Abre el descriptor del usuario correctamente
|
||||||
|
|
||||||
## [2340.01] - 2023-10-05
|
## [2340.01] - 2023-10-05
|
||||||
|
|
||||||
## [2338.01] - 2023-09-21
|
## [2338.01] - 2023-09-21
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Ticket -> Servicios) Se pueden abonar servicios
|
|
||||||
- (Facturas -> Datos básicos) Muestra valores por defecto
|
- (Ticket -> Servicios) Se pueden abonar servicios
|
||||||
- (Facturas -> Borrado) Notificación al borrar un asiento ya enlazado en Sage
|
- (Facturas -> Datos básicos) Muestra valores por defecto
|
||||||
|
- (Facturas -> Borrado) Notificación al borrar un asiento ya enlazado en Sage
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (Trabajadores -> Calendario) Icono de check arreglado cuando pulsas un tipo de dia
|
|
||||||
|
- (Trabajadores -> Calendario) Icono de check arreglado cuando pulsas un tipo de dia
|
||||||
|
|
||||||
## [2336.01] - 2023-09-07
|
## [2336.01] - 2023-09-07
|
||||||
|
|
||||||
## [2334.01] - 2023-08-24
|
## [2334.01] - 2023-08-24
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (General -> Errores) Botón para enviar cau con los datos del error
|
|
||||||
|
|
||||||
|
- (General -> Errores) Botón para enviar cau con los datos del error
|
||||||
|
|
||||||
## [2332.01] - 2023-08-10
|
## [2332.01] - 2023-08-10
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Trabajadores -> Gestión documental) Soporte para Docuware
|
|
||||||
- (General -> Agencia) Soporte para Viaexpress
|
- (Trabajadores -> Gestión documental) Soporte para Docuware
|
||||||
- (Tickets -> SMS) Nueva sección en Lilium
|
- (General -> Agencia) Soporte para Viaexpress
|
||||||
|
- (Tickets -> SMS) Nueva sección en Lilium
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (General -> Tickets) Devuelve el motivo por el cual no es editable
|
|
||||||
- (Desplegables -> Trabajadores) Mejorados
|
- (General -> Tickets) Devuelve el motivo por el cual no es editable
|
||||||
- (General -> Clientes) Razón social y dirección en mayúsculas
|
- (Desplegables -> Trabajadores) Mejorados
|
||||||
|
- (General -> Clientes) Razón social y dirección en mayúsculas
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (Clientes -> SMS) Al pasar el ratón por encima muestra el mensaje completo
|
|
||||||
|
|
||||||
|
- (Clientes -> SMS) Al pasar el ratón por encima muestra el mensaje completo
|
||||||
|
|
||||||
## [2330.01] - 2023-07-27
|
## [2330.01] - 2023-07-27
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Artículos -> Vista Previa) Añadido campo "Plástico reciclado"
|
|
||||||
- (Rutas -> Troncales) Nueva sección
|
- (Artículos -> Vista Previa) Añadido campo "Plástico reciclado"
|
||||||
- (Tickets -> Opciones) Opción establecer peso
|
- (Rutas -> Troncales) Nueva sección
|
||||||
- (Clientes -> SMS) Nueva sección
|
- (Tickets -> Opciones) Opción establecer peso
|
||||||
|
- (Clientes -> SMS) Nueva sección
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (General -> Iconos) Añadidos nuevos iconos
|
|
||||||
- (Clientes -> Razón social) Permite crear clientes con la misma razón social según el país
|
|
||||||
|
|
||||||
|
- (General -> Iconos) Añadidos nuevos iconos
|
||||||
|
- (Clientes -> Razón social) Permite crear clientes con la misma razón social según el país
|
||||||
|
|
||||||
## [2328.01] - 2023-07-13
|
## [2328.01] - 2023-07-13
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Clientes -> Morosos) Añadida columna "es trabajador"
|
|
||||||
- (Trabajadores -> Departamentos) Nueva sección
|
- (Clientes -> Morosos) Añadida columna "es trabajador"
|
||||||
- (Trabajadores -> Departamentos) Añadido listado de Trabajadores por departamento
|
- (Trabajadores -> Departamentos) Nueva sección
|
||||||
- (Trabajadores -> Departamentos) Añadido características de departamento e información
|
- (Trabajadores -> Departamentos) Añadido listado de Trabajadores por departamento
|
||||||
|
- (Trabajadores -> Departamentos) Añadido características de departamento e información
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (Trabajadores -> Departamentos) Arreglado búscador
|
|
||||||
|
|
||||||
|
- (Trabajadores -> Departamentos) Arreglado búscador
|
||||||
|
|
||||||
## [2326.01] - 2023-06-29
|
## [2326.01] - 2023-06-29
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Entradas -> Correo) Al cambiar el tipo de cambio enviará un correo a las personas designadas
|
|
||||||
- (General -> Históricos) Botón para ver el estado del registro en cada punto
|
- (Entradas -> Correo) Al cambiar el tipo de cambio enviará un correo a las personas designadas
|
||||||
- (General -> Históricos) Al filtar por registro se muestra todo el histórial desde que fue creado
|
- (General -> Históricos) Botón para ver el estado del registro en cada punto
|
||||||
- (Tickets -> Índice) Permite enviar varios albaranes a Docuware
|
- (General -> Históricos) Al filtar por registro se muestra todo el histórial desde que fue creado
|
||||||
|
- (Tickets -> Índice) Permite enviar varios albaranes a Docuware
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (General -> Históricos) Los registros se muestran agrupados por usuario y entidad
|
|
||||||
- (Facturas -> Facturación global) Optimizada, generación de PDFs y notificaciones en paralelo
|
- (General -> Históricos) Los registros se muestran agrupados por usuario y entidad
|
||||||
|
- (Facturas -> Facturación global) Optimizada, generación de PDFs y notificaciones en paralelo
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (General -> Históricos) Duplicidades eliminadas
|
|
||||||
- (Facturas -> Facturación global) Solucionados fallos que paran el proceso
|
- (General -> Históricos) Duplicidades eliminadas
|
||||||
|
- (Facturas -> Facturación global) Solucionados fallos que paran el proceso
|
||||||
|
|
||||||
## [2324.01] - 2023-06-15
|
## [2324.01] - 2023-06-15
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Tickets -> Abono) Al abonar permite crear el ticket abono con almacén o sin almmacén
|
|
||||||
- (General -> Desplegables) Mejorada eficiencia de carga de datos
|
- (Tickets -> Abono) Al abonar permite crear el ticket abono con almacén o sin almmacén
|
||||||
- (General -> Históricos) Ahora, ademas de los ids, se muestra la descripión de los atributos
|
- (General -> Desplegables) Mejorada eficiencia de carga de datos
|
||||||
- (General -> Históricos) Botón para hacer más ágil mostrar sólo los cambios en un registro
|
- (General -> Históricos) Ahora, ademas de los ids, se muestra la descripión de los atributos
|
||||||
- (General -> Históricos) Filtro por cambios
|
- (General -> Históricos) Botón para hacer más ágil mostrar sólo los cambios en un registro
|
||||||
|
- (General -> Históricos) Filtro por cambios
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (General -> Permisos) Mejorada seguridad
|
|
||||||
- (General -> Históricos) Elementos de la interfaz reorganizados para hacerla más ágil e intuitiva
|
- (General -> Permisos) Mejorada seguridad
|
||||||
|
- (General -> Históricos) Elementos de la interfaz reorganizados para hacerla más ágil e intuitiva
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
|
|
||||||
-
|
-
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
## [2322.01] - 2023-06-01
|
## [2322.01] - 2023-06-01
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Tickets -> Crear Factura) Al facturar se envia automáticamente el pdf al cliente
|
|
||||||
- (Artículos -> Histórico) Filtro para mostrar lo anterior al inventario
|
- (Tickets -> Crear Factura) Al facturar se envia automáticamente el pdf al cliente
|
||||||
- (Trabajadores -> Nuevo trabajador) Permite elegir el método de pago
|
- (Artículos -> Histórico) Filtro para mostrar lo anterior al inventario
|
||||||
|
- (Trabajadores -> Nuevo trabajador) Permite elegir el método de pago
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (Trabajadores -> Nuevo trabajador) Los clientes se crean sin 'TR' pero se añade tipo de negocio 'Trabajador'
|
|
||||||
- (Tickets -> Expediciones) Interfaz mejorada y contador añadido
|
- (Trabajadores -> Nuevo trabajador) Los clientes se crean sin 'TR' pero se añade tipo de negocio 'Trabajador'
|
||||||
|
- (Tickets -> Expediciones) Interfaz mejorada y contador añadido
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (Tickets -> Líneas) Se permite hacer split de líneas al mismo ticket
|
|
||||||
- (Tickets -> Cambiar estado) Ahora muestra la lista completa de todos los estados
|
|
||||||
|
|
||||||
|
|
||||||
|
- (Tickets -> Líneas) Se permite hacer split de líneas al mismo ticket
|
||||||
|
- (Tickets -> Cambiar estado) Ahora muestra la lista completa de todos los estados
|
||||||
|
|
||||||
## [2320.01] - 2023-05-25
|
## [2320.01] - 2023-05-25
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Tickets -> Crear Factura) Al facturar se envia automáticamente el pdf al cliente
|
|
||||||
|
|
||||||
|
- (Tickets -> Crear Factura) Al facturar se envia automáticamente el pdf al cliente
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (Trabajadores -> Nuevo trabajador) Los clientes se crean sin 'TR' pero se añade tipo de negocio 'Trabajador'
|
|
||||||
|
- (Trabajadores -> Nuevo trabajador) Los clientes se crean sin 'TR' pero se añade tipo de negocio 'Trabajador'
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
|
|
||||||
-
|
-
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
## [2318.01] - 2023-05-08
|
## [2318.01] - 2023-05-08
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Usuarios -> Histórico) Nueva sección
|
|
||||||
- (Roles -> Histórico) Nueva sección
|
- (Usuarios -> Histórico) Nueva sección
|
||||||
- (Trabajadores -> Dar de alta) Permite elegir el método de pago
|
- (Roles -> Histórico) Nueva sección
|
||||||
|
- (Trabajadores -> Dar de alta) Permite elegir el método de pago
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (Artículo -> Precio fijado) Modificado el buscador superior por uno lateral
|
|
||||||
- (Trabajadores -> Dar de alta) Quitada obligatoriedad del iban
|
- (Artículo -> Precio fijado) Modificado el buscador superior por uno lateral
|
||||||
|
- (Trabajadores -> Dar de alta) Quitada obligatoriedad del iban
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (Ticket -> Boxing) Arreglado selección de horas
|
|
||||||
- (Cesta -> Índice) Optimizada búsqueda
|
|
||||||
|
|
||||||
|
|
||||||
|
- (Ticket -> Boxing) Arreglado selección de horas
|
||||||
|
- (Cesta -> Índice) Optimizada búsqueda
|
||||||
|
|
||||||
## [2314.01] - 2023-04-20
|
## [2314.01] - 2023-04-20
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Clientes -> Morosos) Ahora se puede filtrar por las columnas "Desde" y "Fecha Ú. O.". También se envia un email al comercial cuando se añade una nota.
|
|
||||||
- (Monitor tickets) Muestra un icono al lado de la zona, si el ticket es frágil y se envía por agencia
|
- (Clientes -> Morosos) Ahora se puede filtrar por las columnas "Desde" y "Fecha Ú. O.". También se envia un email al comercial cuando se añade una nota.
|
||||||
- (Facturas recibidas -> Bases negativas) Nueva sección
|
- (Monitor tickets) Muestra un icono al lado de la zona, si el ticket es frágil y se envía por agencia
|
||||||
|
- (Facturas recibidas -> Bases negativas) Nueva sección
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (Clientes -> Morosos) Ahora se mantienen los elementos seleccionados al hacer sroll.
|
|
||||||
|
- (Clientes -> Morosos) Ahora se mantienen los elementos seleccionados al hacer sroll.
|
||||||
|
|
||||||
## [2312.01] - 2023-04-06
|
## [2312.01] - 2023-04-06
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Monitor tickets) Muestra un icono al lado de la zona, si el ticket es frágil y se envía por agencia
|
|
||||||
|
- (Monitor tickets) Muestra un icono al lado de la zona, si el ticket es frágil y se envía por agencia
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (Monitor tickets) Cuando se filtra por 'Pendiente' ya no muestra los estados de 'Previa'
|
|
||||||
- (Envíos -> Extra comunitarios) Se agrupan las entradas del mismo travel. Añadidos campos Referencia y Importe.
|
- (Monitor tickets) Cuando se filtra por 'Pendiente' ya no muestra los estados de 'Previa'
|
||||||
- (Envíos -> Índice) Cambiado el buscador superior por uno lateral
|
- (Envíos -> Extra comunitarios) Se agrupan las entradas del mismo travel. Añadidos campos Referencia y Importe.
|
||||||
|
- (Envíos -> Índice) Cambiado el buscador superior por uno lateral
|
||||||
|
|
||||||
## [2310.01] - 2023-03-23
|
## [2310.01] - 2023-03-23
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Trabajadores -> Control de horario) Ahora se puede confirmar/no confirmar el registro horario de cada semana desde esta sección
|
|
||||||
|
- (Trabajadores -> Control de horario) Ahora se puede confirmar/no confirmar el registro horario de cada semana desde esta sección
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (Clientes -> Listado extendido) Resuelto error al filtrar por clientes inactivos desde la columna "Activo"
|
|
||||||
- (General) Al pasar el ratón por encima del icono de "Borrar" en un campo, se hacía más grande afectando a la interfaz
|
- (Clientes -> Listado extendido) Resuelto error al filtrar por clientes inactivos desde la columna "Activo"
|
||||||
|
- (General) Al pasar el ratón por encima del icono de "Borrar" en un campo, se hacía más grande afectando a la interfaz
|
||||||
|
|
||||||
## [2308.01] - 2023-03-09
|
## [2308.01] - 2023-03-09
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Proveedores -> Datos fiscales) Añadido checkbox 'Vies'
|
|
||||||
- (Client -> Descriptor) Nuevo icono $ con barrotes para los clientes con impago
|
- (Proveedores -> Datos fiscales) Añadido checkbox 'Vies'
|
||||||
- (Trabajador -> Datos Básicos) Añadido nuevo campo Taquilla
|
- (Client -> Descriptor) Nuevo icono $ con barrotes para los clientes con impago
|
||||||
- (Trabajador -> PDA) Nueva sección
|
- (Trabajador -> Datos Básicos) Añadido nuevo campo Taquilla
|
||||||
|
- (Trabajador -> PDA) Nueva sección
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (Ticket -> Borrar ticket) Restringido el borrado de tickets con abono
|
|
||||||
|
- (Ticket -> Borrar ticket) Restringido el borrado de tickets con abono
|
||||||
|
|
||||||
## [2306.01] - 2023-02-23
|
## [2306.01] - 2023-02-23
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Tickets -> Datos Básicos) Mensaje de confirmación al intentar generar tickets con negativos
|
|
||||||
- (Artículos) El visible y disponible se calcula a partir de un almacén diferente dependiendo de la sección en la que te encuentres. Se ha añadido un icono que informa sobre a partir de que almacén se esta calculando.
|
- (Tickets -> Datos Básicos) Mensaje de confirmación al intentar generar tickets con negativos
|
||||||
|
- (Artículos) El visible y disponible se calcula a partir de un almacén diferente dependiendo de la sección en la que te encuentres. Se ha añadido un icono que informa sobre a partir de que almacén se esta calculando.
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (General -> Inicio) Ahora permite recuperar la contraseña tanto con el correo de recuperación como el usuario
|
|
||||||
|
- (General -> Inicio) Ahora permite recuperar la contraseña tanto con el correo de recuperación como el usuario
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (Monitor de tickets) Cuando ordenas por columna, ya no se queda deshabilitado el botón de 'Actualizar'
|
|
||||||
- (Zone -> Días de entrega) Al hacer click en un día, muestra correctamente las zonas
|
- (Monitor de tickets) Cuando ordenas por columna, ya no se queda deshabilitado el botón de 'Actualizar'
|
||||||
- (Artículos) El disponible en la vista previa se muestra correctamente
|
- (Zone -> Días de entrega) Al hacer click en un día, muestra correctamente las zonas
|
||||||
|
- (Artículos) El disponible en la vista previa se muestra correctamente
|
||||||
|
|
||||||
## [2304.01] - 2023-02-09
|
## [2304.01] - 2023-02-09
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (Rutas) Al descargar varias facturas se comprime en un zip
|
|
||||||
- (Trabajadores -> Nuevo trabajador) Nueva sección
|
- (Rutas) Al descargar varias facturas se comprime en un zip
|
||||||
- (Tickets -> Adelantar tickets) Añadidos campos "líneas" y "litros" al ticket origen
|
- (Trabajadores -> Nuevo trabajador) Nueva sección
|
||||||
- (Tickets -> Adelantar tickets) Nuevo icono muestra cuando las agencias de los tickets origen/destino son distintas
|
- (Tickets -> Adelantar tickets) Añadidos campos "líneas" y "litros" al ticket origen
|
||||||
|
- (Tickets -> Adelantar tickets) Nuevo icono muestra cuando las agencias de los tickets origen/destino son distintas
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (Entradas -> Compras) Cambiados los campos "Precio Grouping/Packing" por "PVP" y "Precio" por "Coste"
|
|
||||||
- (Artículos -> Últimas entradas) Cambiados los campos "P.P.U." y "P.P.P." por "PVP"
|
- (Entradas -> Compras) Cambiados los campos "Precio Grouping/Packing" por "PVP" y "Precio" por "Coste"
|
||||||
- (Rutas -> Sumario/Tickets) Actualizados campos de los tickets
|
- (Artículos -> Últimas entradas) Cambiados los campos "P.P.U." y "P.P.P." por "PVP"
|
||||||
- (Proveedores -> Crear/Editar) Permite añadir Proveedores con la misma razón social pero con países distintos
|
- (Rutas -> Sumario/Tickets) Actualizados campos de los tickets
|
||||||
- (Tickets -> Adelantar tickets) Cambiados selectores de estado por checks "Pendiente origen/destino"
|
- (Proveedores -> Crear/Editar) Permite añadir Proveedores con la misma razón social pero con países distintos
|
||||||
- (Tickets -> Adelantar tickets) Cambiado stock de destino a origen.
|
- (Tickets -> Adelantar tickets) Cambiados selectores de estado por checks "Pendiente origen/destino"
|
||||||
|
- (Tickets -> Adelantar tickets) Cambiado stock de destino a origen.
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (Artículos -> Etiquetas) Permite intercambiar la relevancia entre dos etiquetas.
|
|
||||||
- (Cliente -> Datos Fiscales) No se permite seleccionar 'Notificar vía e-mail' a los clientes sin e-mail
|
- (Artículos -> Etiquetas) Permite intercambiar la relevancia entre dos etiquetas.
|
||||||
- (Tickets -> Datos básicos) Permite guardar la hora de envío
|
- (Cliente -> Datos Fiscales) No se permite seleccionar 'Notificar vía e-mail' a los clientes sin e-mail
|
||||||
- (Tickets -> Añadir pago) Eliminado "null" en las referencias
|
- (Tickets -> Datos básicos) Permite guardar la hora de envío
|
||||||
- (Tickets -> Adelantar tickets) Permite ordenar por importe
|
- (Tickets -> Añadir pago) Eliminado "null" en las referencias
|
||||||
- (Tickets -> Adelantar tickets) El filtrado por encajado muestra también los tickets sin tipo de encajado
|
- (Tickets -> Adelantar tickets) Permite ordenar por importe
|
||||||
|
- (Tickets -> Adelantar tickets) El filtrado por encajado muestra también los tickets sin tipo de encajado
|
||||||
|
|
||||||
## [2302.01] - 2023-01-26
|
## [2302.01] - 2023-01-26
|
||||||
|
|
||||||
### Added
|
### Added
|
||||||
- (General -> Inicio) Permite recuperar la contraseña
|
|
||||||
- (Tickets -> Opciones) Subir albarán a Docuware
|
- (General -> Inicio) Permite recuperar la contraseña
|
||||||
- (Tickets -> Opciones) Enviar correo con PDF de Docuware
|
- (Tickets -> Opciones) Subir albarán a Docuware
|
||||||
- (Artículos -> Datos Básicos) Añadido campo Unidades/Caja
|
- (Tickets -> Opciones) Enviar correo con PDF de Docuware
|
||||||
|
- (Artículos -> Datos Básicos) Añadido campo Unidades/Caja
|
||||||
|
|
||||||
### Changed
|
### Changed
|
||||||
- (Reclamaciones -> Descriptor) Cambiado el campo Agencia por Zona
|
|
||||||
- (Tickets -> Líneas preparadas) Actualizada sección para que sea más visual
|
- (Reclamaciones -> Descriptor) Cambiado el campo Agencia por Zona
|
||||||
|
- (Tickets -> Líneas preparadas) Actualizada sección para que sea más visual
|
||||||
|
|
||||||
### Fixed
|
### Fixed
|
||||||
- (General) Al utilizar el traductor de Google se descuadraban los iconos
|
|
||||||
|
- (General) Al utilizar el traductor de Google se descuadraban los iconos
|
||||||
|
|
||||||
### Removed
|
### Removed
|
||||||
- (Tickets -> Control clientes) Eliminada sección
|
|
||||||
|
- (Tickets -> Control clientes) Eliminada sección
|
||||||
|
|
|
@ -1,144 +1,253 @@
|
||||||
#!/usr/bin/env groovy
|
#!/usr/bin/env groovy
|
||||||
|
|
||||||
|
def PROTECTED_BRANCH
|
||||||
|
def FROM_GIT
|
||||||
|
def RUN_TESTS
|
||||||
|
def RUN_BUILD
|
||||||
|
|
||||||
|
def BRANCH_ENV = [
|
||||||
|
test: 'test',
|
||||||
|
master: 'production'
|
||||||
|
]
|
||||||
|
|
||||||
|
node {
|
||||||
|
stage('Setup') {
|
||||||
|
env.BACK_REPLICAS = 1
|
||||||
|
env.NODE_ENV = BRANCH_ENV[env.BRANCH_NAME] ?: 'dev'
|
||||||
|
|
||||||
|
PROTECTED_BRANCH = [
|
||||||
|
'dev',
|
||||||
|
'test',
|
||||||
|
'master'
|
||||||
|
].contains(env.BRANCH_NAME)
|
||||||
|
|
||||||
|
FROM_GIT = env.JOB_NAME.startsWith('gitea/')
|
||||||
|
RUN_TESTS = !PROTECTED_BRANCH && FROM_GIT
|
||||||
|
RUN_BUILD = PROTECTED_BRANCH && FROM_GIT
|
||||||
|
|
||||||
|
// https://www.jenkins.io/doc/book/pipeline/jenkinsfile/#using-environment-variables
|
||||||
|
echo "NODE_NAME: ${env.NODE_NAME}"
|
||||||
|
echo "WORKSPACE: ${env.WORKSPACE}"
|
||||||
|
|
||||||
|
configFileProvider([
|
||||||
|
configFile(fileId: 'salix.properties',
|
||||||
|
variable: 'PROPS_FILE')
|
||||||
|
]) {
|
||||||
|
def props = readProperties file: PROPS_FILE
|
||||||
|
props.each {key, value -> env."${key}" = value }
|
||||||
|
props.each {key, value -> echo "${key}: ${value}" }
|
||||||
|
}
|
||||||
|
|
||||||
|
if (PROTECTED_BRANCH) {
|
||||||
|
configFileProvider([
|
||||||
|
configFile(fileId: "salix.branch.${env.BRANCH_NAME}",
|
||||||
|
variable: 'BRANCH_PROPS_FILE')
|
||||||
|
]) {
|
||||||
|
def props = readProperties file: BRANCH_PROPS_FILE
|
||||||
|
props.each {key, value -> env."${key}" = value }
|
||||||
|
props.each {key, value -> echo "${key}: ${value}" }
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
pipeline {
|
pipeline {
|
||||||
agent any
|
agent any
|
||||||
options {
|
options {
|
||||||
disableConcurrentBuilds()
|
disableConcurrentBuilds()
|
||||||
}
|
}
|
||||||
|
tools {
|
||||||
|
nodejs 'node-v20'
|
||||||
|
}
|
||||||
environment {
|
environment {
|
||||||
PROJECT_NAME = 'salix'
|
PROJECT_NAME = 'salix'
|
||||||
STACK_NAME = "${env.PROJECT_NAME}-${env.BRANCH_NAME}"
|
STACK_NAME = "${env.PROJECT_NAME}-${env.BRANCH_NAME}"
|
||||||
}
|
}
|
||||||
stages {
|
stages {
|
||||||
stage('Checkout') {
|
|
||||||
steps {
|
|
||||||
script {
|
|
||||||
switch (env.BRANCH_NAME) {
|
|
||||||
case 'master':
|
|
||||||
env.NODE_ENV = 'production'
|
|
||||||
env.BACK_REPLICAS = 4
|
|
||||||
break
|
|
||||||
case 'test':
|
|
||||||
env.NODE_ENV = 'test'
|
|
||||||
env.BACK_REPLICAS = 2
|
|
||||||
break
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
configFileProvider([
|
|
||||||
configFile(fileId: "salix.groovy",
|
|
||||||
variable: 'GROOVY_FILE')
|
|
||||||
]) {
|
|
||||||
load env.GROOVY_FILE
|
|
||||||
}
|
|
||||||
|
|
||||||
setEnv()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
stage('Install') {
|
stage('Install') {
|
||||||
environment {
|
environment {
|
||||||
NODE_ENV = ""
|
NODE_ENV = ''
|
||||||
}
|
|
||||||
steps {
|
|
||||||
nodejs('node-v20') {
|
|
||||||
sh 'npm install --no-audit --prefer-offline'
|
|
||||||
sh 'gulp install --ci'
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
stage('Test') {
|
|
||||||
when { not { anyOf {
|
|
||||||
branch 'test'
|
|
||||||
branch 'master'
|
|
||||||
}}}
|
|
||||||
environment {
|
|
||||||
NODE_ENV = ""
|
|
||||||
TZ = 'Europe/Madrid'
|
|
||||||
}
|
}
|
||||||
parallel {
|
parallel {
|
||||||
stage('Frontend') {
|
stage('Back') {
|
||||||
steps {
|
steps {
|
||||||
nodejs('node-v20') {
|
sh 'pnpm install --prefer-offline'
|
||||||
sh 'jest --ci --reporters=default --reporters=jest-junit --maxWorkers=2'
|
}
|
||||||
|
}
|
||||||
|
stage('Print') {
|
||||||
|
when {
|
||||||
|
expression { FROM_GIT }
|
||||||
|
}
|
||||||
|
steps {
|
||||||
|
sh 'pnpm install --prefer-offline --prefix=print'
|
||||||
|
}
|
||||||
|
}
|
||||||
|
stage('Front') {
|
||||||
|
when {
|
||||||
|
expression { FROM_GIT }
|
||||||
|
}
|
||||||
|
steps {
|
||||||
|
sh 'pnpm install --prefer-offline --prefix=front'
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
stage('Stack') {
|
||||||
|
parallel {
|
||||||
|
stage('Back') {
|
||||||
|
stages {
|
||||||
|
stage('Test') {
|
||||||
|
when {
|
||||||
|
expression { RUN_TESTS }
|
||||||
|
}
|
||||||
|
environment {
|
||||||
|
NODE_ENV = ''
|
||||||
|
}
|
||||||
|
steps {
|
||||||
|
sh 'node back/tests.js --ci --junit --network jenkins'
|
||||||
|
}
|
||||||
|
post {
|
||||||
|
always {
|
||||||
|
junit(
|
||||||
|
testResults: 'junitresults.xml',
|
||||||
|
allowEmptyResults: true
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
stage('Build') {
|
||||||
|
when {
|
||||||
|
expression { RUN_BUILD }
|
||||||
|
}
|
||||||
|
steps {
|
||||||
|
script {
|
||||||
|
def packageJson = readJSON file: 'package.json'
|
||||||
|
env.VERSION = packageJson.version
|
||||||
|
}
|
||||||
|
sh 'docker-compose build back'
|
||||||
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
stage('Backend') {
|
stage('Front') {
|
||||||
steps {
|
when {
|
||||||
nodejs('node-v20') {
|
expression { FROM_GIT }
|
||||||
sh 'npm run test:back:ci'
|
}
|
||||||
|
stages {
|
||||||
|
stage('Test') {
|
||||||
|
when {
|
||||||
|
expression { RUN_TESTS }
|
||||||
|
}
|
||||||
|
environment {
|
||||||
|
NODE_ENV = ''
|
||||||
|
}
|
||||||
|
steps {
|
||||||
|
sh 'jest --ci --reporters=default --reporters=jest-junit --maxWorkers=10'
|
||||||
|
}
|
||||||
|
post {
|
||||||
|
always {
|
||||||
|
junit(
|
||||||
|
testResults: 'junit.xml',
|
||||||
|
allowEmptyResults: true
|
||||||
|
)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
stage('Build') {
|
||||||
|
when {
|
||||||
|
expression { RUN_BUILD }
|
||||||
|
}
|
||||||
|
steps {
|
||||||
|
script {
|
||||||
|
def packageJson = readJSON file: 'package.json'
|
||||||
|
env.VERSION = packageJson.version
|
||||||
|
}
|
||||||
|
sh 'gulp build'
|
||||||
|
sh 'docker-compose build front'
|
||||||
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
stage('Build') {
|
stage('Push') {
|
||||||
when { anyOf {
|
when {
|
||||||
branch 'test'
|
expression { RUN_BUILD }
|
||||||
branch 'master'
|
}
|
||||||
}}
|
|
||||||
environment {
|
environment {
|
||||||
CREDENTIALS = credentials('docker-registry')
|
CREDENTIALS = credentials('docker-registry')
|
||||||
}
|
}
|
||||||
steps {
|
steps {
|
||||||
nodejs('node-v20') {
|
script {
|
||||||
sh 'gulp build'
|
def packageJson = readJSON file: 'package.json'
|
||||||
|
env.VERSION = packageJson.version
|
||||||
}
|
}
|
||||||
|
sh 'docker login --username $CREDENTIALS_USR --password $CREDENTIALS_PSW $REGISTRY'
|
||||||
dockerBuild()
|
sh 'docker-compose push'
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
stage('Deploy') {
|
stage('Deploy') {
|
||||||
when { anyOf {
|
when {
|
||||||
branch 'test'
|
expression { PROTECTED_BRANCH }
|
||||||
branch 'master'
|
|
||||||
}}
|
|
||||||
environment {
|
|
||||||
DOCKER_HOST = "${env.SWARM_HOST}"
|
|
||||||
}
|
}
|
||||||
steps {
|
parallel {
|
||||||
sh "docker stack deploy --with-registry-auth --compose-file docker-compose.yml ${env.STACK_NAME}"
|
stage('Database') {
|
||||||
}
|
steps {
|
||||||
}
|
configFileProvider([
|
||||||
stage('Database') {
|
configFile(fileId: "config.${env.NODE_ENV}.ini",
|
||||||
when { anyOf {
|
variable: 'MYSQL_CONFIG')
|
||||||
branch 'test'
|
]) {
|
||||||
branch 'master'
|
sh 'mkdir -p db/remotes'
|
||||||
}}
|
sh 'cp "$MYSQL_CONFIG" db/remotes/$NODE_ENV.ini'
|
||||||
steps {
|
}
|
||||||
configFileProvider([
|
|
||||||
configFile(fileId: "config.${env.NODE_ENV}.ini",
|
|
||||||
variable: 'MYSQL_CONFIG')
|
|
||||||
]) {
|
|
||||||
sh 'cp "$MYSQL_CONFIG" db/config.$NODE_ENV.ini'
|
|
||||||
}
|
|
||||||
|
|
||||||
sh 'db/import-changes.sh -f $NODE_ENV'
|
sh 'npx myt push $NODE_ENV --force --commit'
|
||||||
|
}
|
||||||
|
}
|
||||||
|
stage('Docker') {
|
||||||
|
when {
|
||||||
|
expression { FROM_GIT }
|
||||||
|
}
|
||||||
|
environment {
|
||||||
|
DOCKER_HOST = "${env.SWARM_HOST}"
|
||||||
|
}
|
||||||
|
steps {
|
||||||
|
script {
|
||||||
|
def packageJson = readJSON file: 'package.json'
|
||||||
|
env.VERSION = packageJson.version
|
||||||
|
}
|
||||||
|
sh "docker stack deploy --with-registry-auth --compose-file docker-compose.yml ${env.STACK_NAME}"
|
||||||
|
}
|
||||||
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
post {
|
post {
|
||||||
always {
|
success {
|
||||||
script {
|
script {
|
||||||
if (!['master', 'test'].contains(env.BRANCH_NAME)) {
|
if (env.BRANCH_NAME == 'master' && FROM_GIT) {
|
||||||
try {
|
env.GIT_COMMIT_MSG = sh(
|
||||||
junit 'junitresults.xml'
|
script: 'git log -1 --pretty=%B ${GIT_COMMIT}',
|
||||||
junit 'junit.xml'
|
returnStdout: true
|
||||||
} catch (e) {
|
).trim()
|
||||||
echo e.toString()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if (!env.COMMITTER_EMAIL || currentBuild.currentResult == 'SUCCESS') return;
|
String message = env.GIT_COMMIT_MSG
|
||||||
try {
|
int index = message.indexOf('\n')
|
||||||
mail(
|
if (index != -1)
|
||||||
to: env.COMMITTER_EMAIL,
|
message = message.substring(0, index)
|
||||||
subject: "Pipeline: ${env.JOB_NAME} (${env.BUILD_NUMBER}): ${currentBuild.currentResult}",
|
|
||||||
body: "Check status at ${env.BUILD_URL}"
|
rocketSend(
|
||||||
|
channel: 'vn-database',
|
||||||
|
message: "*DB version uploaded:* ${message}"
|
||||||
|
+"\n$COMMITTER_EMAIL ($BRANCH_NAME)"
|
||||||
|
+"\n$GIT_URL/commit/$GIT_COMMIT",
|
||||||
|
rawMessage: true
|
||||||
)
|
)
|
||||||
} catch (e) {
|
|
||||||
echo e.toString()
|
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
unsuccessful {
|
||||||
|
setEnv()
|
||||||
|
sendEmail()
|
||||||
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
|
@ -13,7 +13,7 @@ RUN apt-get update \
|
||||||
graphicsmagick \
|
graphicsmagick \
|
||||||
&& curl -fsSL https://deb.nodesource.com/setup_20.x | bash - \
|
&& curl -fsSL https://deb.nodesource.com/setup_20.x | bash - \
|
||||||
&& apt-get install -y --no-install-recommends nodejs \
|
&& apt-get install -y --no-install-recommends nodejs \
|
||||||
&& npm install -g npm@9.6.6
|
&& corepack enable pnpm
|
||||||
|
|
||||||
# Puppeteer
|
# Puppeteer
|
||||||
|
|
||||||
|
@ -39,12 +39,12 @@ RUN apt-get update \
|
||||||
|
|
||||||
WORKDIR /salix
|
WORKDIR /salix
|
||||||
|
|
||||||
COPY print/package.json print/package-lock.json print/
|
COPY print/package.json print/pnpm-lock.yaml print/
|
||||||
RUN npm --prefix ./print install --omit=dev ./print
|
RUN pnpm install --prod --prefix=print
|
||||||
|
|
||||||
COPY package.json package-lock.json ./
|
COPY package.json pnpm-lock.yaml ./
|
||||||
COPY loopback/package.json loopback/
|
COPY loopback/package.json loopback/
|
||||||
RUN npm install --omit=dev
|
RUN pnpm install --prod
|
||||||
|
|
||||||
COPY loopback loopback
|
COPY loopback loopback
|
||||||
COPY back back
|
COPY back back
|
|
@ -1,20 +0,0 @@
|
||||||
module.exports = Self => {
|
|
||||||
Self.remoteMethod('getSectors', {
|
|
||||||
description: 'Get all sectors',
|
|
||||||
accessType: 'READ',
|
|
||||||
returns: {
|
|
||||||
type: 'Object',
|
|
||||||
root: true
|
|
||||||
},
|
|
||||||
http: {
|
|
||||||
path: `/getSectors`,
|
|
||||||
verb: 'GET'
|
|
||||||
}
|
|
||||||
});
|
|
||||||
|
|
||||||
Self.getSectors = async() => {
|
|
||||||
const query = `CALL vn.sector_get()`;
|
|
||||||
const [result] = await Self.rawSql(query);
|
|
||||||
return result;
|
|
||||||
};
|
|
||||||
};
|
|
|
@ -1,11 +0,0 @@
|
||||||
const {models} = require('vn-loopback/server/server');
|
|
||||||
|
|
||||||
describe('getSectors()', () => {
|
|
||||||
it('return list of sectors', async() => {
|
|
||||||
let response = await models.Collection.getSectors();
|
|
||||||
|
|
||||||
expect(response.length).toBeGreaterThan(0);
|
|
||||||
expect(response[0].id).toEqual(1);
|
|
||||||
expect(response[0].description).toEqual('First sector');
|
|
||||||
});
|
|
||||||
});
|
|
|
@ -49,7 +49,6 @@ module.exports = Self => {
|
||||||
Self.uploadFile = async(ctx, options) => {
|
Self.uploadFile = async(ctx, options) => {
|
||||||
const models = Self.app.models;
|
const models = Self.app.models;
|
||||||
const TempContainer = models.TempContainer;
|
const TempContainer = models.TempContainer;
|
||||||
const DmsContainer = models.DmsContainer;
|
|
||||||
const fileOptions = {};
|
const fileOptions = {};
|
||||||
const args = ctx.args;
|
const args = ctx.args;
|
||||||
|
|
||||||
|
@ -79,19 +78,21 @@ module.exports = Self => {
|
||||||
|
|
||||||
const addedDms = [];
|
const addedDms = [];
|
||||||
for (const uploadedFile of files) {
|
for (const uploadedFile of files) {
|
||||||
const newDms = await createDms(ctx, uploadedFile, myOptions);
|
|
||||||
const pathHash = DmsContainer.getHash(newDms.id);
|
|
||||||
|
|
||||||
const file = await TempContainer.getFile(tempContainer.name, uploadedFile.name);
|
const file = await TempContainer.getFile(tempContainer.name, uploadedFile.name);
|
||||||
srcFile = path.join(file.client.root, file.container, file.name);
|
srcFile = path.join(file.client.root, file.container, file.name);
|
||||||
|
|
||||||
const dmsContainer = await DmsContainer.container(pathHash);
|
const data = {
|
||||||
const dstFile = path.join(dmsContainer.client.root, pathHash, newDms.file);
|
workerFk: ctx.req.accessToken.userId,
|
||||||
|
dmsTypeFk: args.dmsTypeId,
|
||||||
await fs.move(srcFile, dstFile, {
|
companyFk: args.companyId,
|
||||||
overwrite: true
|
warehouseFk: args.warehouseId,
|
||||||
});
|
reference: args.reference,
|
||||||
|
description: args.description,
|
||||||
|
contentType: args.contentType,
|
||||||
|
hasFile: args.hasFile
|
||||||
|
};
|
||||||
|
const extension = await models.DmsContainer.getFileExtension(uploadedFile.name);
|
||||||
|
const newDms = await Self.createFromFile(data, extension, srcFile, myOptions);
|
||||||
addedDms.push(newDms);
|
addedDms.push(newDms);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -107,27 +108,4 @@ module.exports = Self => {
|
||||||
throw e;
|
throw e;
|
||||||
}
|
}
|
||||||
};
|
};
|
||||||
|
|
||||||
async function createDms(ctx, file, myOptions) {
|
|
||||||
const models = Self.app.models;
|
|
||||||
const myUserId = ctx.req.accessToken.userId;
|
|
||||||
const args = ctx.args;
|
|
||||||
|
|
||||||
const newDms = await Self.create({
|
|
||||||
workerFk: myUserId,
|
|
||||||
dmsTypeFk: args.dmsTypeId,
|
|
||||||
companyFk: args.companyId,
|
|
||||||
warehouseFk: args.warehouseId,
|
|
||||||
reference: args.reference,
|
|
||||||
description: args.description,
|
|
||||||
contentType: file.type,
|
|
||||||
hasFile: args.hasFile
|
|
||||||
}, myOptions);
|
|
||||||
|
|
||||||
let fileName = file.name;
|
|
||||||
const extension = models.DmsContainer.getFileExtension(fileName);
|
|
||||||
fileName = `${newDms.id}.${extension}`;
|
|
||||||
|
|
||||||
return newDms.updateAttribute('file', fileName, myOptions);
|
|
||||||
}
|
|
||||||
};
|
};
|
||||||
|
|
|
@ -24,15 +24,40 @@ describe('docuware upload()', () => {
|
||||||
});
|
});
|
||||||
|
|
||||||
it('should try upload file', async() => {
|
it('should try upload file', async() => {
|
||||||
|
const tx = await models.Docuware.beginTransaction({});
|
||||||
spyOn(ticketModel, 'deliveryNotePdf').and.returnValue(new Promise(resolve => resolve({})));
|
spyOn(ticketModel, 'deliveryNotePdf').and.returnValue(new Promise(resolve => resolve({})));
|
||||||
|
|
||||||
let error;
|
let error;
|
||||||
try {
|
try {
|
||||||
await models.Docuware.upload(ctx, ticketIds, fileCabinetName);
|
const options = {transaction: tx};
|
||||||
|
const user = await models.UserConfig.findById(userId, null, options);
|
||||||
|
await user.updateAttribute('tabletFk', 'Tablet1', options);
|
||||||
|
await models.Docuware.upload(ctx, ticketIds, fileCabinetName, options);
|
||||||
|
|
||||||
|
await tx.rollback();
|
||||||
} catch (e) {
|
} catch (e) {
|
||||||
error = e.message;
|
error = e;
|
||||||
|
await tx.rollback();
|
||||||
}
|
}
|
||||||
|
|
||||||
expect(error).toEqual('Action not allowed on the test environment');
|
expect(error.message).toEqual('Action not allowed on the test environment');
|
||||||
|
});
|
||||||
|
|
||||||
|
it('should throw error when not have tablet assigned', async() => {
|
||||||
|
const tx = await models.Docuware.beginTransaction({});
|
||||||
|
spyOn(ticketModel, 'deliveryNotePdf').and.returnValue(new Promise(resolve => resolve({})));
|
||||||
|
|
||||||
|
let error;
|
||||||
|
try {
|
||||||
|
const options = {transaction: tx};
|
||||||
|
await models.Docuware.upload(ctx, ticketIds, fileCabinetName, options);
|
||||||
|
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
error = e;
|
||||||
|
await tx.rollback();
|
||||||
|
}
|
||||||
|
|
||||||
|
expect(error.message).toEqual('This user does not have an assigned tablet');
|
||||||
});
|
});
|
||||||
});
|
});
|
||||||
|
|
|
@ -29,12 +29,24 @@ module.exports = Self => {
|
||||||
}
|
}
|
||||||
});
|
});
|
||||||
|
|
||||||
Self.upload = async function(ctx, ticketIds, fileCabinet) {
|
Self.upload = async function(ctx, ticketIds, fileCabinet, options) {
|
||||||
delete ctx.args.ticketIds;
|
delete ctx.args.ticketIds;
|
||||||
const models = Self.app.models;
|
const models = Self.app.models;
|
||||||
const action = 'store';
|
const action = 'store';
|
||||||
|
|
||||||
const options = await Self.getOptions();
|
const myOptions = {};
|
||||||
|
|
||||||
|
if (typeof options == 'object')
|
||||||
|
Object.assign(myOptions, options);
|
||||||
|
|
||||||
|
const userConfig = await models.UserConfig.findById(ctx.req.accessToken.userId, {
|
||||||
|
fields: ['tabletFk']
|
||||||
|
}, myOptions);
|
||||||
|
|
||||||
|
if (!userConfig?.tabletFk)
|
||||||
|
throw new UserError('This user does not have an assigned tablet');
|
||||||
|
|
||||||
|
const docuwareOptions = await Self.getOptions();
|
||||||
const fileCabinetId = await Self.getFileCabinet(fileCabinet);
|
const fileCabinetId = await Self.getFileCabinet(fileCabinet);
|
||||||
const dialogId = await Self.getDialog(fileCabinet, action, fileCabinetId);
|
const dialogId = await Self.getDialog(fileCabinet, action, fileCabinetId);
|
||||||
|
|
||||||
|
@ -45,7 +57,7 @@ module.exports = Self => {
|
||||||
const deliveryNote = await models.Ticket.deliveryNotePdf(ctx, {
|
const deliveryNote = await models.Ticket.deliveryNotePdf(ctx, {
|
||||||
id,
|
id,
|
||||||
type: 'deliveryNote'
|
type: 'deliveryNote'
|
||||||
});
|
}, myOptions);
|
||||||
// get ticket data
|
// get ticket data
|
||||||
const ticket = await models.Ticket.findById(id, {
|
const ticket = await models.Ticket.findById(id, {
|
||||||
include: [{
|
include: [{
|
||||||
|
@ -54,7 +66,7 @@ module.exports = Self => {
|
||||||
fields: ['id', 'name', 'fi']
|
fields: ['id', 'name', 'fi']
|
||||||
}
|
}
|
||||||
}]
|
}]
|
||||||
});
|
}, myOptions);
|
||||||
|
|
||||||
// upload file
|
// upload file
|
||||||
const templateJson = {
|
const templateJson = {
|
||||||
|
@ -102,7 +114,7 @@ module.exports = Self => {
|
||||||
{
|
{
|
||||||
'FieldName': 'FILTRO_TABLET',
|
'FieldName': 'FILTRO_TABLET',
|
||||||
'ItemElementName': 'string',
|
'ItemElementName': 'string',
|
||||||
'Item': 'Tablet1',
|
'Item': userConfig.tabletFk,
|
||||||
}
|
}
|
||||||
]
|
]
|
||||||
};
|
};
|
||||||
|
@ -116,11 +128,11 @@ module.exports = Self => {
|
||||||
const deleteJson = {
|
const deleteJson = {
|
||||||
'Field': [{'FieldName': 'ESTADO', 'Item': 'Pendiente eliminar', 'ItemElementName': 'String'}]
|
'Field': [{'FieldName': 'ESTADO', 'Item': 'Pendiente eliminar', 'ItemElementName': 'String'}]
|
||||||
};
|
};
|
||||||
const deleteUri = `${options.url}/FileCabinets/${fileCabinetId}/Documents/${docuwareFile.id}/Fields`;
|
const deleteUri = `${docuwareOptions.url}/FileCabinets/${fileCabinetId}/Documents/${docuwareFile.id}/Fields`;
|
||||||
await axios.put(deleteUri, deleteJson, options.headers);
|
await axios.put(deleteUri, deleteJson, docuwareOptions.headers);
|
||||||
}
|
}
|
||||||
|
|
||||||
const uploadUri = `${options.url}/FileCabinets/${fileCabinetId}/Documents?StoreDialogId=${dialogId}`;
|
const uploadUri = `${docuwareOptions.url}/FileCabinets/${fileCabinetId}/Documents?StoreDialogId=${dialogId}`;
|
||||||
const FormData = require('form-data');
|
const FormData = require('form-data');
|
||||||
const data = new FormData();
|
const data = new FormData();
|
||||||
|
|
||||||
|
@ -130,7 +142,7 @@ module.exports = Self => {
|
||||||
headers: {
|
headers: {
|
||||||
'Content-Type': 'multipart/form-data',
|
'Content-Type': 'multipart/form-data',
|
||||||
'X-File-ModifiedDate': Date.vnNew(),
|
'X-File-ModifiedDate': Date.vnNew(),
|
||||||
'Cookie': options.headers.headers.Cookie,
|
'Cookie': docuwareOptions.headers.headers.Cookie,
|
||||||
...data.getHeaders()
|
...data.getHeaders()
|
||||||
},
|
},
|
||||||
};
|
};
|
||||||
|
@ -141,11 +153,11 @@ module.exports = Self => {
|
||||||
const $t = ctx.req.__;
|
const $t = ctx.req.__;
|
||||||
const message = $t('Failed to upload delivery note', {id});
|
const message = $t('Failed to upload delivery note', {id});
|
||||||
if (uploaded.length)
|
if (uploaded.length)
|
||||||
await models.TicketTracking.setDelivered(ctx, uploaded);
|
await models.TicketTracking.setDelivered(ctx, uploaded, myOptions);
|
||||||
throw new UserError(message);
|
throw new UserError(message);
|
||||||
}
|
}
|
||||||
uploaded.push(id);
|
uploaded.push(id);
|
||||||
}
|
}
|
||||||
return models.TicketTracking.setDelivered(ctx, ticketIds);
|
return models.TicketTracking.setDelivered(ctx, ticketIds, myOptions);
|
||||||
};
|
};
|
||||||
};
|
};
|
||||||
|
|
|
@ -87,6 +87,6 @@ module.exports = Self => {
|
||||||
|
|
||||||
await fs.access(file.path);
|
await fs.access(file.path);
|
||||||
const stream = fs.createReadStream(file.path);
|
const stream = fs.createReadStream(file.path);
|
||||||
return [stream, file.contentType, `filename="${file.name}"`];
|
return [stream, file.contentType, `filename="${fileName}"`];
|
||||||
};
|
};
|
||||||
};
|
};
|
||||||
|
|
|
@ -95,10 +95,7 @@ describe('image upload()', () => {
|
||||||
spyOn(containerModel, 'upload');
|
spyOn(containerModel, 'upload');
|
||||||
|
|
||||||
const ctx = {req: {accessToken: {userId: hhrrId}},
|
const ctx = {req: {accessToken: {userId: hhrrId}},
|
||||||
args: {
|
args: {id: itemId, collection: 'user'}
|
||||||
id: itemId,
|
|
||||||
collection: 'user'
|
|
||||||
}
|
|
||||||
};
|
};
|
||||||
|
|
||||||
try {
|
try {
|
||||||
|
@ -109,7 +106,7 @@ describe('image upload()', () => {
|
||||||
});
|
});
|
||||||
|
|
||||||
it('should try to upload a file for the collection "catalog" and throw a privilege error', async() => {
|
it('should try to upload a file for the collection "catalog" and throw a privilege error', async() => {
|
||||||
const ctx = {req: {accessToken: {userId: hhrrId}},
|
const ctx = {req: {accessToken: {userId: 1}},
|
||||||
args: {
|
args: {
|
||||||
id: workerId,
|
id: workerId,
|
||||||
collection: 'catalog'
|
collection: 'catalog'
|
||||||
|
|
|
@ -35,10 +35,17 @@ module.exports = Self => {
|
||||||
let html = `<strong>Motivo</strong>:<br/>${reason}<br/>`;
|
let html = `<strong>Motivo</strong>:<br/>${reason}<br/>`;
|
||||||
html += `<strong>Usuario</strong>:<br/>${ctx.req.accessToken.userId} ${emailUser.email}<br/>`;
|
html += `<strong>Usuario</strong>:<br/>${ctx.req.accessToken.userId} ${emailUser.email}<br/>`;
|
||||||
|
|
||||||
|
delete additionalData.backError.config.headers.Authorization;
|
||||||
|
const httpRequest = JSON.parse(additionalData?.httpRequest);
|
||||||
|
|
||||||
|
if (httpRequest)
|
||||||
|
delete httpRequest.config.headers.Authorization;
|
||||||
|
additionalData.httpRequest = httpRequest;
|
||||||
|
|
||||||
for (const data in additionalData)
|
for (const data in additionalData)
|
||||||
html += `<strong>${data}</strong>:<br/>${tryParse(additionalData[data])}<br/>`;
|
html += `<strong>${data}</strong>:<br/>${tryParse(additionalData[data])}<br/>`;
|
||||||
|
|
||||||
const subjectReason = JSON.parse(additionalData?.httpRequest)?.data?.error;
|
const subjectReason = httpRequest?.data?.error;
|
||||||
smtp.send({
|
smtp.send({
|
||||||
to: `${config.app.reportEmail}, ${emailUser.email}`,
|
to: `${config.app.reportEmail}, ${emailUser.email}`,
|
||||||
subject:
|
subject:
|
||||||
|
|
|
@ -0,0 +1,80 @@
|
||||||
|
const {ParameterizedSQL} = require('loopback-connector');
|
||||||
|
const {buildFilter} = require('vn-loopback/util/filter');
|
||||||
|
|
||||||
|
module.exports = Self => {
|
||||||
|
Self.remoteMethod('filter', {
|
||||||
|
description:
|
||||||
|
'Find all postcodes of the model matched by postcode, town, province or country.',
|
||||||
|
accessType: 'READ',
|
||||||
|
accepts: [
|
||||||
|
{
|
||||||
|
arg: 'filter',
|
||||||
|
type: 'object',
|
||||||
|
description: 'Filter defining where, order, offset, and limit - must be a JSON-encoded string',
|
||||||
|
http: {source: 'query'}
|
||||||
|
},
|
||||||
|
{
|
||||||
|
arg: 'search',
|
||||||
|
type: 'string',
|
||||||
|
description: 'Value to filter',
|
||||||
|
http: {source: 'query'}
|
||||||
|
},
|
||||||
|
],
|
||||||
|
returns: {
|
||||||
|
type: ['object'],
|
||||||
|
root: true,
|
||||||
|
},
|
||||||
|
http: {
|
||||||
|
path: `/filter`,
|
||||||
|
verb: 'GET',
|
||||||
|
},
|
||||||
|
});
|
||||||
|
Self.filter = async(ctx, filter, options) => {
|
||||||
|
const myOptions = {};
|
||||||
|
if (typeof options == 'object')
|
||||||
|
Object.assign(myOptions, options);
|
||||||
|
|
||||||
|
filter = ctx?.filter ?? {};
|
||||||
|
|
||||||
|
const conn = Self.dataSource.connector;
|
||||||
|
const where = buildFilter(filter?.where, (param, value) => {
|
||||||
|
switch (param) {
|
||||||
|
case 'search':
|
||||||
|
return {
|
||||||
|
or: [
|
||||||
|
{'pc.code': {like: `%${value}%`}},
|
||||||
|
{'t.name': {like: `%${value}%`}},
|
||||||
|
{'p.name': {like: `%${value}%`}},
|
||||||
|
{'c.country': {like: `%${value}%`}}
|
||||||
|
]
|
||||||
|
};
|
||||||
|
}
|
||||||
|
}) ?? {};
|
||||||
|
delete ctx.filter.where;
|
||||||
|
|
||||||
|
const stmts = [];
|
||||||
|
let stmt;
|
||||||
|
stmt = new ParameterizedSQL(`
|
||||||
|
SELECT
|
||||||
|
pc.townFk,
|
||||||
|
t.provinceFk,
|
||||||
|
p.countryFk,
|
||||||
|
pc.code,
|
||||||
|
t.name as town,
|
||||||
|
p.name as province,
|
||||||
|
c.country
|
||||||
|
FROM
|
||||||
|
postCode pc
|
||||||
|
JOIN town t on t.id = pc.townFk
|
||||||
|
JOIN province p on p.id = t.provinceFk
|
||||||
|
JOIN country c on c.id = p.countryFk
|
||||||
|
`);
|
||||||
|
|
||||||
|
stmt.merge(conn.makeSuffix({where, ...ctx}));
|
||||||
|
const itemsIndex = stmts.push(stmt) - 1;
|
||||||
|
|
||||||
|
const sql = ParameterizedSQL.join(stmts, ';');
|
||||||
|
const result = await conn.executeStmt(sql, myOptions);
|
||||||
|
return itemsIndex === 0 ? result : result[itemsIndex];
|
||||||
|
};
|
||||||
|
};
|
|
@ -0,0 +1,111 @@
|
||||||
|
const {models} = require('vn-loopback/server/server');
|
||||||
|
|
||||||
|
describe('Postcode filter()', () => {
|
||||||
|
it('should retrieve with no filter', async() => {
|
||||||
|
const tx = await models.Postcode.beginTransaction({});
|
||||||
|
const options = {transaction: tx};
|
||||||
|
|
||||||
|
try {
|
||||||
|
const ctx = {
|
||||||
|
filter: {
|
||||||
|
},
|
||||||
|
limit: 1
|
||||||
|
};
|
||||||
|
const results = await models.Postcode.filter(ctx, options);
|
||||||
|
|
||||||
|
expect(results.length).toEqual(1);
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
await tx.rollback();
|
||||||
|
throw e;
|
||||||
|
}
|
||||||
|
});
|
||||||
|
|
||||||
|
it('should retrieve with filter as postcode', async() => {
|
||||||
|
const tx = await models.Postcode.beginTransaction({});
|
||||||
|
const options = {transaction: tx};
|
||||||
|
|
||||||
|
try {
|
||||||
|
const ctx = {
|
||||||
|
filter: {
|
||||||
|
where: {
|
||||||
|
search: 46,
|
||||||
|
}
|
||||||
|
},
|
||||||
|
};
|
||||||
|
const results = await models.Postcode.filter(ctx, options);
|
||||||
|
|
||||||
|
expect(results.length).toEqual(4);
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
await tx.rollback();
|
||||||
|
throw e;
|
||||||
|
}
|
||||||
|
});
|
||||||
|
|
||||||
|
it('should retrieve with filter as city', async() => {
|
||||||
|
const tx = await models.Postcode.beginTransaction({});
|
||||||
|
const options = {transaction: tx};
|
||||||
|
|
||||||
|
try {
|
||||||
|
const ctx = {
|
||||||
|
filter: {
|
||||||
|
where: {
|
||||||
|
search: 'Alz',
|
||||||
|
}
|
||||||
|
},
|
||||||
|
};
|
||||||
|
const results = await models.Postcode.filter(ctx, options);
|
||||||
|
|
||||||
|
expect(results.length).toEqual(1);
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
await tx.rollback();
|
||||||
|
throw e;
|
||||||
|
}
|
||||||
|
});
|
||||||
|
|
||||||
|
it('should retrieve with filter as province', async() => {
|
||||||
|
const tx = await models.Postcode.beginTransaction({});
|
||||||
|
const options = {transaction: tx};
|
||||||
|
|
||||||
|
try {
|
||||||
|
const ctx = {
|
||||||
|
filter: {
|
||||||
|
where: {
|
||||||
|
search: 'one',
|
||||||
|
}
|
||||||
|
},
|
||||||
|
};
|
||||||
|
const results = await models.Postcode.filter(ctx, options);
|
||||||
|
|
||||||
|
expect(results.length).toEqual(4);
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
await tx.rollback();
|
||||||
|
throw e;
|
||||||
|
}
|
||||||
|
});
|
||||||
|
|
||||||
|
it('should retrieve with filter as country', async() => {
|
||||||
|
const tx = await models.Postcode.beginTransaction({});
|
||||||
|
const options = {transaction: tx};
|
||||||
|
|
||||||
|
try {
|
||||||
|
const ctx = {
|
||||||
|
filter: {
|
||||||
|
where: {
|
||||||
|
search: 'Ec',
|
||||||
|
}
|
||||||
|
},
|
||||||
|
};
|
||||||
|
const results = await models.Postcode.filter(ctx, options);
|
||||||
|
|
||||||
|
expect(results.length).toEqual(1);
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
await tx.rollback();
|
||||||
|
throw e;
|
||||||
|
}
|
||||||
|
});
|
||||||
|
});
|
|
@ -20,7 +20,7 @@ module.exports = Self => {
|
||||||
}
|
}
|
||||||
});
|
});
|
||||||
|
|
||||||
Self.internationalExpedition = async expeditionFk => {
|
Self.internationalExpedition = async (expeditionFk) => {
|
||||||
const models = Self.app.models;
|
const models = Self.app.models;
|
||||||
|
|
||||||
const viaexpressConfig = await models.ViaexpressConfig.findOne({
|
const viaexpressConfig = await models.ViaexpressConfig.findOne({
|
||||||
|
|
|
@ -20,11 +20,11 @@ module.exports = Self => {
|
||||||
}
|
}
|
||||||
});
|
});
|
||||||
|
|
||||||
Self.renderer = async expeditionFk => {
|
Self.renderer = async (expeditionFk) => {
|
||||||
const models = Self.app.models;
|
const models = Self.app.models;
|
||||||
|
|
||||||
const viaexpressConfig = await models.ViaexpressConfig.findOne({
|
const viaexpressConfig = await models.ViaexpressConfig.findOne({
|
||||||
fields: ['client', 'user', 'password', 'defaultWeight', 'deliveryType']
|
fields: ['client', 'user', 'password', 'defaultWeight', 'deliveryType', 'agencyModeFk']
|
||||||
});
|
});
|
||||||
|
|
||||||
const expedition = await models.Expedition.findOne({
|
const expedition = await models.Expedition.findOne({
|
||||||
|
@ -34,7 +34,7 @@ module.exports = Self => {
|
||||||
{
|
{
|
||||||
relation: 'ticket',
|
relation: 'ticket',
|
||||||
scope: {
|
scope: {
|
||||||
fields: ['shipped', 'addressFk', 'clientFk', 'companyFk'],
|
fields: ['shipped', 'addressFk', 'clientFk', 'companyFk', 'agencyModeFk'],
|
||||||
include: [
|
include: [
|
||||||
{
|
{
|
||||||
relation: 'client',
|
relation: 'client',
|
||||||
|
@ -102,7 +102,6 @@ module.exports = Self => {
|
||||||
}
|
}
|
||||||
]
|
]
|
||||||
}
|
}
|
||||||
|
|
||||||
}
|
}
|
||||||
]
|
]
|
||||||
});
|
});
|
||||||
|
@ -110,13 +109,15 @@ module.exports = Self => {
|
||||||
const ticket = expedition.ticket();
|
const ticket = expedition.ticket();
|
||||||
const sender = ticket.company().client();
|
const sender = ticket.company().client();
|
||||||
const shipped = ticket.shipped.toISOString();
|
const shipped = ticket.shipped.toISOString();
|
||||||
|
const isInterdia = (ticket.agencyModeFk === viaexpressConfig.agencyModeFk)
|
||||||
const data = {
|
const data = {
|
||||||
viaexpressConfig,
|
viaexpressConfig,
|
||||||
sender,
|
sender,
|
||||||
senderAddress: sender.defaultAddress(),
|
senderAddress: sender.defaultAddress(),
|
||||||
client: ticket.client(),
|
client: ticket.client(),
|
||||||
address: ticket.address(),
|
address: ticket.address(),
|
||||||
shipped
|
shipped,
|
||||||
|
isInterdia
|
||||||
};
|
};
|
||||||
|
|
||||||
const template = fs.readFileSync(__dirname + '/template.ejs', 'utf-8');
|
const template = fs.readFileSync(__dirname + '/template.ejs', 'utf-8');
|
||||||
|
|
|
@ -13,7 +13,7 @@
|
||||||
<Asegurado>0</Asegurado>
|
<Asegurado>0</Asegurado>
|
||||||
<Imprimir>0</Imprimir>
|
<Imprimir>0</Imprimir>
|
||||||
<ConDevolucionAlbaran>0</ConDevolucionAlbaran>
|
<ConDevolucionAlbaran>0</ConDevolucionAlbaran>
|
||||||
<Intradia>0</Intradia>
|
<Intradia><%= isInterdia %></Intradia>
|
||||||
<Observaciones></Observaciones>
|
<Observaciones></Observaciones>
|
||||||
<AlbaranRemitente></AlbaranRemitente>
|
<AlbaranRemitente></AlbaranRemitente>
|
||||||
<Modo>0</Modo>
|
<Modo>0</Modo>
|
||||||
|
|
|
@ -68,7 +68,7 @@ module.exports = Self => {
|
||||||
userToUpdate.hasGrant = hasGrant;
|
userToUpdate.hasGrant = hasGrant;
|
||||||
|
|
||||||
if (roleFk) {
|
if (roleFk) {
|
||||||
const role = await models.Role.findById(roleFk, {fields: ['name']}, myOptions);
|
const role = await models.VnRole.findById(roleFk, {fields: ['name']}, myOptions);
|
||||||
const hasRole = await Self.hasRole(userId, role.name, myOptions);
|
const hasRole = await Self.hasRole(userId, role.name, myOptions);
|
||||||
|
|
||||||
if (!hasRole)
|
if (!hasRole)
|
||||||
|
|
|
@ -1,4 +1,4 @@
|
||||||
const UserError = require('vn-loopback/util/user-error');
|
const {models} = require('vn-loopback/server/server');
|
||||||
|
|
||||||
module.exports = Self => {
|
module.exports = Self => {
|
||||||
Self.remoteMethodCtx('renewToken', {
|
Self.remoteMethodCtx('renewToken', {
|
||||||
|
@ -16,20 +16,31 @@ module.exports = Self => {
|
||||||
});
|
});
|
||||||
|
|
||||||
Self.renewToken = async function(ctx) {
|
Self.renewToken = async function(ctx) {
|
||||||
const models = Self.app.models;
|
const {accessToken: token} = ctx.req;
|
||||||
const token = ctx.req.accessToken;
|
|
||||||
|
|
||||||
const now = new Date();
|
// Check if current token is valid
|
||||||
|
|
||||||
|
const {renewPeriod, courtesyTime} = await models.AccessTokenConfig.findOne({
|
||||||
|
fields: ['renewPeriod', 'courtesyTime']
|
||||||
|
});
|
||||||
|
const now = Date.now();
|
||||||
const differenceMilliseconds = now - token.created;
|
const differenceMilliseconds = now - token.created;
|
||||||
const differenceSeconds = Math.floor(differenceMilliseconds / 1000);
|
const differenceSeconds = Math.floor(differenceMilliseconds / 1000);
|
||||||
|
const isNotExceeded = differenceSeconds < renewPeriod - courtesyTime;
|
||||||
|
if (isNotExceeded)
|
||||||
|
return token;
|
||||||
|
|
||||||
const fields = ['renewPeriod', 'courtesyTime'];
|
// Schedule to remove current token
|
||||||
const accessTokenConfig = await models.AccessTokenConfig.findOne({fields});
|
setTimeout(async() => {
|
||||||
|
try {
|
||||||
|
await Self.logout(token.id);
|
||||||
|
} catch (err) {
|
||||||
|
// eslint-disable-next-line no-console
|
||||||
|
console.error(err);
|
||||||
|
}
|
||||||
|
}, courtesyTime * 1000);
|
||||||
|
|
||||||
if (differenceSeconds < accessTokenConfig.renewPeriod - accessTokenConfig.courtesyTime)
|
// Create new accessToken
|
||||||
throw new UserError(`The renew period has not been exceeded`, 'periodNotExceeded');
|
|
||||||
|
|
||||||
await Self.logout(token.id);
|
|
||||||
const user = await Self.findById(token.userId);
|
const user = await Self.findById(token.userId);
|
||||||
const accessToken = await user.createAccessToken();
|
const accessToken = await user.createAccessToken();
|
||||||
|
|
||||||
|
|
|
@ -70,7 +70,7 @@ describe('VnUser privileges()', () => {
|
||||||
const tx = await models.VnUser.beginTransaction({});
|
const tx = await models.VnUser.beginTransaction({});
|
||||||
|
|
||||||
const options = {transaction: tx};
|
const options = {transaction: tx};
|
||||||
const agency = await models.Role.findOne({
|
const agency = await models.VnRole.findOne({
|
||||||
where: {
|
where: {
|
||||||
name: 'agency'
|
name: 'agency'
|
||||||
}
|
}
|
||||||
|
|
|
@ -0,0 +1,50 @@
|
||||||
|
const {models} = require('vn-loopback/server/server');
|
||||||
|
describe('Renew Token', () => {
|
||||||
|
const startingTime = Date.now();
|
||||||
|
let ctx = null;
|
||||||
|
beforeAll(async() => {
|
||||||
|
const unAuthCtx = {
|
||||||
|
req: {
|
||||||
|
headers: {},
|
||||||
|
connection: {
|
||||||
|
remoteAddress: '127.0.0.1'
|
||||||
|
},
|
||||||
|
getLocale: () => 'en'
|
||||||
|
},
|
||||||
|
args: {}
|
||||||
|
};
|
||||||
|
let login = await models.VnUser.signIn(unAuthCtx, 'salesAssistant', 'nightmare');
|
||||||
|
let accessToken = await models.AccessToken.findById(login.token);
|
||||||
|
ctx = {req: {accessToken: accessToken}};
|
||||||
|
});
|
||||||
|
|
||||||
|
beforeEach(() => {
|
||||||
|
jasmine.clock().install();
|
||||||
|
jasmine.clock().mockDate(new Date(startingTime));
|
||||||
|
});
|
||||||
|
|
||||||
|
afterEach(() => {
|
||||||
|
jasmine.clock().uninstall();
|
||||||
|
});
|
||||||
|
|
||||||
|
it('should renew token', async() => {
|
||||||
|
const mockDate = new Date(startingTime + 26600000);
|
||||||
|
jasmine.clock().mockDate(mockDate);
|
||||||
|
const {id} = await models.VnUser.renewToken(ctx);
|
||||||
|
|
||||||
|
expect(id).not.toEqual(ctx.req.accessToken.id);
|
||||||
|
});
|
||||||
|
|
||||||
|
it('NOT should renew', async() => {
|
||||||
|
let error;
|
||||||
|
let response;
|
||||||
|
try {
|
||||||
|
response = await models.VnUser.renewToken(ctx);
|
||||||
|
} catch (e) {
|
||||||
|
error = e;
|
||||||
|
}
|
||||||
|
|
||||||
|
expect(error).toBeUndefined();
|
||||||
|
expect(response.id).toEqual(ctx.req.accessToken.id);
|
||||||
|
});
|
||||||
|
});
|
|
@ -20,10 +20,7 @@ describe('VnUser Sign-in()', () => {
|
||||||
let ctx = {req: {accessToken: accessToken}};
|
let ctx = {req: {accessToken: accessToken}};
|
||||||
let signInLog = await SignInLog.find({where: {token: accessToken.id}});
|
let signInLog = await SignInLog.find({where: {token: accessToken.id}});
|
||||||
|
|
||||||
expect(signInLog.length).toEqual(1);
|
expect(signInLog.length).toEqual(0);
|
||||||
expect(signInLog[0].userFk).toEqual(accessToken.userId);
|
|
||||||
expect(signInLog[0].owner).toEqual(true);
|
|
||||||
expect(login.token).toBeDefined();
|
|
||||||
|
|
||||||
await VnUser.logout(ctx.req.accessToken.id);
|
await VnUser.logout(ctx.req.accessToken.id);
|
||||||
});
|
});
|
||||||
|
|
|
@ -1,17 +0,0 @@
|
||||||
module.exports = Self => {
|
|
||||||
Self.remoteMethod('validateToken', {
|
|
||||||
description: 'Validates the current logged user token',
|
|
||||||
returns: {
|
|
||||||
type: 'Boolean',
|
|
||||||
root: true
|
|
||||||
},
|
|
||||||
http: {
|
|
||||||
path: `/validateToken`,
|
|
||||||
verb: 'GET'
|
|
||||||
}
|
|
||||||
});
|
|
||||||
|
|
||||||
Self.validateToken = async function() {
|
|
||||||
return true;
|
|
||||||
};
|
|
||||||
};
|
|
|
@ -139,9 +139,6 @@
|
||||||
"Warehouse": {
|
"Warehouse": {
|
||||||
"dataSource": "vn"
|
"dataSource": "vn"
|
||||||
},
|
},
|
||||||
"VnUser": {
|
|
||||||
"dataSource": "vn"
|
|
||||||
},
|
|
||||||
"OsTicket": {
|
"OsTicket": {
|
||||||
"dataSource": "osticket"
|
"dataSource": "osticket"
|
||||||
},
|
},
|
||||||
|
@ -156,6 +153,12 @@
|
||||||
},
|
},
|
||||||
"ViaexpressConfig": {
|
"ViaexpressConfig": {
|
||||||
"dataSource": "vn"
|
"dataSource": "vn"
|
||||||
|
},
|
||||||
|
"VnUser": {
|
||||||
|
"dataSource": "vn"
|
||||||
|
},
|
||||||
|
"VnRole": {
|
||||||
|
"dataSource": "vn"
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
|
@ -8,6 +8,26 @@ module.exports = Self => {
|
||||||
});
|
});
|
||||||
|
|
||||||
Self.validatesUniquenessOf('bic', {
|
Self.validatesUniquenessOf('bic', {
|
||||||
message: 'This BIC already exist.'
|
message: 'This BIC already exist'
|
||||||
});
|
});
|
||||||
|
|
||||||
|
Self.validatesPresenceOf('countryFk', {
|
||||||
|
message: 'CountryFK cannot be empty'
|
||||||
|
});
|
||||||
|
|
||||||
|
Self.validateAsync('bic', checkBic, {
|
||||||
|
message: 'Bank entity id must be specified'
|
||||||
|
});
|
||||||
|
async function checkBic(err, done) {
|
||||||
|
const filter = {
|
||||||
|
fields: ['code'],
|
||||||
|
where: {id: this.countryFk}
|
||||||
|
};
|
||||||
|
const country = await Self.app.models.Country.findOne(filter);
|
||||||
|
const code = country ? country.code.toLowerCase() : null;
|
||||||
|
|
||||||
|
if (code == 'es' && !this.id)
|
||||||
|
err();
|
||||||
|
done();
|
||||||
|
}
|
||||||
};
|
};
|
||||||
|
|
|
@ -1,6 +1,5 @@
|
||||||
module.exports = Self => {
|
module.exports = Self => {
|
||||||
require('../methods/collection/getCollection')(Self);
|
require('../methods/collection/getCollection')(Self);
|
||||||
require('../methods/collection/getSectors')(Self);
|
|
||||||
require('../methods/collection/setSaleQuantity')(Self);
|
require('../methods/collection/setSaleQuantity')(Self);
|
||||||
require('../methods/collection/previousLabel')(Self);
|
require('../methods/collection/previousLabel')(Self);
|
||||||
require('../methods/collection/getTickets')(Self);
|
require('../methods/collection/getTickets')(Self);
|
||||||
|
|
|
@ -17,10 +17,6 @@
|
||||||
"type": "string",
|
"type": "string",
|
||||||
"required": true
|
"required": true
|
||||||
},
|
},
|
||||||
"path": {
|
|
||||||
"type": "string",
|
|
||||||
"required": true
|
|
||||||
},
|
|
||||||
"code": {
|
"code": {
|
||||||
"type": "string",
|
"type": "string",
|
||||||
"required": true
|
"required": true
|
||||||
|
@ -29,12 +25,12 @@
|
||||||
"relations": {
|
"relations": {
|
||||||
"readRole": {
|
"readRole": {
|
||||||
"type": "belongsTo",
|
"type": "belongsTo",
|
||||||
"model": "Role",
|
"model": "VnRole",
|
||||||
"foreignKey": "readRoleFk"
|
"foreignKey": "readRoleFk"
|
||||||
},
|
},
|
||||||
"writeRole": {
|
"writeRole": {
|
||||||
"type": "belongsTo",
|
"type": "belongsTo",
|
||||||
"model": "Role",
|
"model": "VnRole",
|
||||||
"foreignKey": "writeRoleFk"
|
"foreignKey": "writeRoleFk"
|
||||||
}
|
}
|
||||||
},
|
},
|
||||||
|
|
|
@ -1,4 +1,6 @@
|
||||||
const UserError = require('vn-loopback/util/user-error');
|
const UserError = require('vn-loopback/util/user-error');
|
||||||
|
const fs = require('fs-extra');
|
||||||
|
const path = require('path');
|
||||||
|
|
||||||
module.exports = Self => {
|
module.exports = Self => {
|
||||||
require('../methods/dms/downloadFile')(Self);
|
require('../methods/dms/downloadFile')(Self);
|
||||||
|
@ -35,4 +37,32 @@ module.exports = Self => {
|
||||||
|
|
||||||
return [stream, dms.contentType, `filename="${dms.file}"`];
|
return [stream, dms.contentType, `filename="${dms.file}"`];
|
||||||
};
|
};
|
||||||
|
|
||||||
|
Self.getPath = async function(dms) {
|
||||||
|
const models = Self.app.models;
|
||||||
|
const pathHash = await models.DmsContainer.getHash(dms.id);
|
||||||
|
const dmsContainer = await models.DmsContainer.container(pathHash);
|
||||||
|
const dstFile = path.join(dmsContainer.client.root, pathHash, dms.file);
|
||||||
|
return dstFile;
|
||||||
|
};
|
||||||
|
|
||||||
|
Self.createWithExtension = async function(data, extension, options) {
|
||||||
|
const newDms = await Self.create(data, options);
|
||||||
|
return newDms.updateAttribute('file', `${newDms.id}.${extension}`, options);
|
||||||
|
};
|
||||||
|
|
||||||
|
Self.createFromFile = async function(data, extension, srcFile, options) {
|
||||||
|
const dms = await Self.createWithExtension(data, extension, options);
|
||||||
|
const dstFile = await Self.getPath(dms);
|
||||||
|
await fs.move(srcFile, dstFile, {overwrite: true});
|
||||||
|
return dms;
|
||||||
|
};
|
||||||
|
|
||||||
|
Self.createFromStream = async function(data, extension, stream, options) {
|
||||||
|
const dms = await Self.createWithExtension(data, extension, options);
|
||||||
|
const dstFile = await Self.getPath(dms);
|
||||||
|
const writeStream = await fs.createWriteStream(dstFile);
|
||||||
|
await stream.pipe(writeStream);
|
||||||
|
return dms;
|
||||||
|
};
|
||||||
};
|
};
|
||||||
|
|
|
@ -0,0 +1,17 @@
|
||||||
|
{
|
||||||
|
"name": "docuwareTablet",
|
||||||
|
"base": "VnModel",
|
||||||
|
"options": {
|
||||||
|
"mysql": {
|
||||||
|
"table": "docuwareTablet"
|
||||||
|
}
|
||||||
|
},
|
||||||
|
"properties": {
|
||||||
|
"tablet": {
|
||||||
|
"type": "string"
|
||||||
|
},
|
||||||
|
"description": {
|
||||||
|
"type": "string"
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
|
@ -46,12 +46,12 @@
|
||||||
},
|
},
|
||||||
"readRole": {
|
"readRole": {
|
||||||
"type": "belongsTo",
|
"type": "belongsTo",
|
||||||
"model": "Role",
|
"model": "VnRole",
|
||||||
"foreignKey": "readRoleFk"
|
"foreignKey": "readRoleFk"
|
||||||
},
|
},
|
||||||
"writeRole": {
|
"writeRole": {
|
||||||
"type": "belongsTo",
|
"type": "belongsTo",
|
||||||
"model": "Role",
|
"model": "VnRole",
|
||||||
"foreignKey": "writeRoleFk"
|
"foreignKey": "writeRoleFk"
|
||||||
}
|
}
|
||||||
},
|
},
|
||||||
|
@ -64,4 +64,3 @@
|
||||||
}
|
}
|
||||||
]
|
]
|
||||||
}
|
}
|
||||||
|
|
|
@ -24,7 +24,7 @@
|
||||||
},
|
},
|
||||||
"role": {
|
"role": {
|
||||||
"type": "belongsTo",
|
"type": "belongsTo",
|
||||||
"model": "Role",
|
"model": "VnRole",
|
||||||
"foreignKey": "roleFk"
|
"foreignKey": "roleFk"
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
|
@ -1,6 +1,7 @@
|
||||||
let UserError = require('vn-loopback/util/user-error');
|
let UserError = require('vn-loopback/util/user-error');
|
||||||
|
|
||||||
module.exports = Self => {
|
module.exports = Self => {
|
||||||
|
require('../methods/postcode/filter.js')(Self);
|
||||||
Self.rewriteDbError(function(err) {
|
Self.rewriteDbError(function(err) {
|
||||||
if (err.code === 'ER_DUP_ENTRY')
|
if (err.code === 'ER_DUP_ENTRY')
|
||||||
return new UserError(`This postcode already exists`);
|
return new UserError(`This postcode already exists`);
|
||||||
|
|
|
@ -0,0 +1,56 @@
|
||||||
|
const models = require('vn-loopback/server/server').models;
|
||||||
|
|
||||||
|
describe('loopback model MailAliasAccount', () => {
|
||||||
|
it('should add a mail Alias', async() => {
|
||||||
|
const tx = await models.MailAliasAccount.beginTransaction({});
|
||||||
|
let error;
|
||||||
|
|
||||||
|
try {
|
||||||
|
const options = {transaction: tx, accessToken: {userId: 9}};
|
||||||
|
await models.MailAliasAccount.create({mailAlias: 2, account: 5}, options);
|
||||||
|
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
await tx.rollback();
|
||||||
|
error = e;
|
||||||
|
}
|
||||||
|
|
||||||
|
expect(error).toBeUndefined();
|
||||||
|
});
|
||||||
|
|
||||||
|
it('should add a mail Alias of an inherit role', async() => {
|
||||||
|
const tx = await models.MailAliasAccount.beginTransaction({});
|
||||||
|
let error;
|
||||||
|
|
||||||
|
try {
|
||||||
|
const options = {transaction: tx, accessToken: {userId: 9}};
|
||||||
|
await models.MailAliasAccount.create({mailAlias: 3, account: 5}, options);
|
||||||
|
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
await tx.rollback();
|
||||||
|
error = e;
|
||||||
|
}
|
||||||
|
|
||||||
|
expect(error).toBeUndefined();
|
||||||
|
});
|
||||||
|
|
||||||
|
it('should delete a mail Alias', async() => {
|
||||||
|
const tx = await models.MailAliasAccount.beginTransaction({});
|
||||||
|
let error;
|
||||||
|
|
||||||
|
try {
|
||||||
|
const options = {transaction: tx, accessToken: {userId: 1}};
|
||||||
|
const mailAclId = 2;
|
||||||
|
await models.MailAliasAccount.destroyAll({id: mailAclId}, options);
|
||||||
|
|
||||||
|
await tx.rollback();
|
||||||
|
} catch (e) {
|
||||||
|
await tx.rollback();
|
||||||
|
error = e;
|
||||||
|
}
|
||||||
|
|
||||||
|
expect(error).toBeUndefined();
|
||||||
|
});
|
||||||
|
});
|
||||||
|
|
|
@ -26,6 +26,9 @@
|
||||||
},
|
},
|
||||||
"darkMode": {
|
"darkMode": {
|
||||||
"type": "boolean"
|
"type": "boolean"
|
||||||
|
},
|
||||||
|
"tabletFk": {
|
||||||
|
"type": "string"
|
||||||
}
|
}
|
||||||
},
|
},
|
||||||
"relations": {
|
"relations": {
|
||||||
|
@ -43,6 +46,11 @@
|
||||||
"type": "belongsTo",
|
"type": "belongsTo",
|
||||||
"model": "VnUser",
|
"model": "VnUser",
|
||||||
"foreignKey": "userFk"
|
"foreignKey": "userFk"
|
||||||
}
|
},
|
||||||
|
"Tablet": {
|
||||||
|
"type": "belongsTo",
|
||||||
|
"model": "docuwareTablet",
|
||||||
|
"foreignKey": "tabletFk"
|
||||||
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
|
@ -29,6 +29,9 @@
|
||||||
},
|
},
|
||||||
"deliveryType": {
|
"deliveryType": {
|
||||||
"type": "string"
|
"type": "string"
|
||||||
|
},
|
||||||
|
"agencyModeFk": {
|
||||||
|
"type": "number"
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
|
@ -0,0 +1,13 @@
|
||||||
|
{
|
||||||
|
"name": "VnRole",
|
||||||
|
"base": "Role",
|
||||||
|
"validateUpsert": true,
|
||||||
|
"options": {
|
||||||
|
"mysql": {
|
||||||
|
"table": "account.role"
|
||||||
|
}
|
||||||
|
},
|
||||||
|
"mixins": {
|
||||||
|
"Loggable": true
|
||||||
|
}
|
||||||
|
}
|
|
@ -10,7 +10,6 @@ module.exports = function(Self) {
|
||||||
require('../methods/vn-user/sign-in')(Self);
|
require('../methods/vn-user/sign-in')(Self);
|
||||||
require('../methods/vn-user/acl')(Self);
|
require('../methods/vn-user/acl')(Self);
|
||||||
require('../methods/vn-user/recover-password')(Self);
|
require('../methods/vn-user/recover-password')(Self);
|
||||||
require('../methods/vn-user/validate-token')(Self);
|
|
||||||
require('../methods/vn-user/privileges')(Self);
|
require('../methods/vn-user/privileges')(Self);
|
||||||
require('../methods/vn-user/validate-auth')(Self);
|
require('../methods/vn-user/validate-auth')(Self);
|
||||||
require('../methods/vn-user/renew-token')(Self);
|
require('../methods/vn-user/renew-token')(Self);
|
||||||
|
@ -80,10 +79,10 @@ module.exports = function(Self) {
|
||||||
Self.getRoles = async(userId, options) => {
|
Self.getRoles = async(userId, options) => {
|
||||||
const result = await Self.rawSql(
|
const result = await Self.rawSql(
|
||||||
`SELECT r.name
|
`SELECT r.name
|
||||||
FROM account.user u
|
FROM account.user u
|
||||||
JOIN account.roleRole rr ON rr.role = u.role
|
JOIN account.roleRole rr ON rr.role = u.role
|
||||||
JOIN account.role r ON r.id = rr.inheritsFrom
|
JOIN account.role r ON r.id = rr.inheritsFrom
|
||||||
WHERE u.id = ?`, [userId], options);
|
WHERE u.id = ?`, [userId], options);
|
||||||
|
|
||||||
const roles = [];
|
const roles = [];
|
||||||
for (const role of result)
|
for (const role of result)
|
||||||
|
@ -135,15 +134,16 @@ module.exports = function(Self) {
|
||||||
Self.signInValidate = async(user, userToken, token, ctx) => {
|
Self.signInValidate = async(user, userToken, token, ctx) => {
|
||||||
const [[key, value]] = Object.entries(Self.userUses(user));
|
const [[key, value]] = Object.entries(Self.userUses(user));
|
||||||
const isOwner = Self.rawSql(`SELECT ? = ? `, [userToken[key], value]);
|
const isOwner = Self.rawSql(`SELECT ? = ? `, [userToken[key], value]);
|
||||||
await Self.app.models.SignInLog.create({
|
if (!isOwner) {
|
||||||
userName: user,
|
await Self.app.models.SignInLog.create({
|
||||||
token: token.id,
|
userName: user,
|
||||||
userFk: userToken.id,
|
token: token.id,
|
||||||
ip: ctx.req.ip,
|
userFk: userToken.id,
|
||||||
owner: isOwner
|
ip: ctx.req.ip,
|
||||||
});
|
owner: isOwner
|
||||||
if (!isOwner)
|
});
|
||||||
throw new UserError('Try again');
|
throw new UserError('Try again');
|
||||||
|
}
|
||||||
};
|
};
|
||||||
|
|
||||||
/**
|
/**
|
||||||
|
@ -258,18 +258,20 @@ module.exports = function(Self) {
|
||||||
|
|
||||||
class Mailer {
|
class Mailer {
|
||||||
async send(verifyOptions, cb) {
|
async send(verifyOptions, cb) {
|
||||||
const url = new URL(verifyOptions.verifyHref);
|
try {
|
||||||
if (process.env.NODE_ENV) url.port = '';
|
const url = new URL(verifyOptions.verifyHref);
|
||||||
|
if (process.env.NODE_ENV) url.port = '';
|
||||||
|
|
||||||
const params = {
|
const email = new Email('email-verify', {
|
||||||
url: url.href,
|
url: url.href,
|
||||||
recipient: verifyOptions.to
|
recipient: verifyOptions.to
|
||||||
};
|
});
|
||||||
|
await email.send();
|
||||||
|
|
||||||
const email = new Email('email-verify', params);
|
cb(null, verifyOptions.to);
|
||||||
email.send();
|
} catch (err) {
|
||||||
|
cb(err);
|
||||||
cb(null, verifyOptions.to);
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
|
@ -7,6 +7,9 @@
|
||||||
"table": "account.user"
|
"table": "account.user"
|
||||||
}
|
}
|
||||||
},
|
},
|
||||||
|
"mixins": {
|
||||||
|
"Loggable": true
|
||||||
|
},
|
||||||
"resetPasswordTokenTTL": "604800",
|
"resetPasswordTokenTTL": "604800",
|
||||||
"properties": {
|
"properties": {
|
||||||
"id": {
|
"id": {
|
||||||
|
@ -63,7 +66,7 @@
|
||||||
"relations": {
|
"relations": {
|
||||||
"role": {
|
"role": {
|
||||||
"type": "belongsTo",
|
"type": "belongsTo",
|
||||||
"model": "Role",
|
"model": "VnRole",
|
||||||
"foreignKey": "roleFk"
|
"foreignKey": "roleFk"
|
||||||
},
|
},
|
||||||
"roles": {
|
"roles": {
|
||||||
|
@ -95,34 +98,30 @@
|
||||||
"principalType": "ROLE",
|
"principalType": "ROLE",
|
||||||
"principalId": "$everyone",
|
"principalId": "$everyone",
|
||||||
"permission": "ALLOW"
|
"permission": "ALLOW"
|
||||||
},
|
}, {
|
||||||
{
|
"property": "recoverPassword",
|
||||||
"property": "recoverPassword",
|
|
||||||
"accessType": "EXECUTE",
|
|
||||||
"principalType": "ROLE",
|
|
||||||
"principalId": "$everyone",
|
|
||||||
"permission": "ALLOW"
|
|
||||||
},
|
|
||||||
{
|
|
||||||
"property": "validateToken",
|
|
||||||
"accessType": "EXECUTE",
|
|
||||||
"principalType": "ROLE",
|
|
||||||
"principalId": "$authenticated",
|
|
||||||
"permission": "ALLOW"
|
|
||||||
},
|
|
||||||
{
|
|
||||||
"property": "validateAuth",
|
|
||||||
"accessType": "EXECUTE",
|
"accessType": "EXECUTE",
|
||||||
"principalType": "ROLE",
|
"principalType": "ROLE",
|
||||||
"principalId": "$everyone",
|
"principalId": "$everyone",
|
||||||
"permission": "ALLOW"
|
"permission": "ALLOW"
|
||||||
},
|
}, {
|
||||||
{
|
"property": "validateAuth",
|
||||||
|
"accessType": "EXECUTE",
|
||||||
|
"principalType": "ROLE",
|
||||||
|
"principalId": "$everyone",
|
||||||
|
"permission": "ALLOW"
|
||||||
|
}, {
|
||||||
"property": "privileges",
|
"property": "privileges",
|
||||||
"accessType": "*",
|
"accessType": "*",
|
||||||
"principalType": "ROLE",
|
"principalType": "ROLE",
|
||||||
"principalId": "$authenticated",
|
"principalId": "$authenticated",
|
||||||
"permission": "ALLOW"
|
"permission": "ALLOW"
|
||||||
|
}, {
|
||||||
|
"property": "renewToken",
|
||||||
|
"accessType": "WRITE",
|
||||||
|
"principalType": "ROLE",
|
||||||
|
"principalId": "$authenticated",
|
||||||
|
"permission": "ALLOW"
|
||||||
}
|
}
|
||||||
],
|
],
|
||||||
"scopes": {
|
"scopes": {
|
||||||
|
|
|
@ -0,0 +1,34 @@
|
||||||
|
/* eslint-disable no-console */
|
||||||
|
const app = require('vn-loopback/server/server');
|
||||||
|
let dataSources = require('../loopback/server/datasources.json');
|
||||||
|
|
||||||
|
async function init() {
|
||||||
|
console.log('Initializing backend.');
|
||||||
|
|
||||||
|
dataSources = JSON.parse(JSON.stringify(dataSources));
|
||||||
|
Object.assign(dataSources.vn, {
|
||||||
|
host: process.env.DB_HOST,
|
||||||
|
port: process.env.DB_PORT
|
||||||
|
});
|
||||||
|
|
||||||
|
const bootOptions = {dataSources};
|
||||||
|
await new Promise((resolve, reject) => {
|
||||||
|
app.boot(bootOptions,
|
||||||
|
err => err ? reject(err) : resolve());
|
||||||
|
});
|
||||||
|
// FIXME: Workaround to wait for loopback to be ready
|
||||||
|
await app.models.Application.status();
|
||||||
|
}
|
||||||
|
|
||||||
|
async function deinit() {
|
||||||
|
console.log('Stopping backend.');
|
||||||
|
await app.disconnect();
|
||||||
|
}
|
||||||
|
|
||||||
|
module.exports = {
|
||||||
|
init,
|
||||||
|
deinit
|
||||||
|
};
|
||||||
|
|
||||||
|
if (require.main === module)
|
||||||
|
init();
|
179
back/tests.js
179
back/tests.js
|
@ -1,84 +1,123 @@
|
||||||
const Docker = require('../db/docker.js');
|
/* eslint-disable no-console */
|
||||||
let dataSources = require('../loopback/server/datasources.json');
|
const path = require('path');
|
||||||
|
const getopts = require('getopts');
|
||||||
|
const Myt = require('@verdnatura/myt/myt');
|
||||||
|
const Run = require('@verdnatura/myt/myt-run');
|
||||||
|
const helper = require('./tests-helper');
|
||||||
|
|
||||||
process.on('warning', warning => {
|
const opts = getopts(process.argv.slice(2), {
|
||||||
console.log(warning.name);
|
string: [
|
||||||
console.log(warning.message);
|
'network'
|
||||||
console.log(warning.stack);
|
],
|
||||||
|
boolean: [
|
||||||
|
'ci',
|
||||||
|
'junit'
|
||||||
|
]
|
||||||
});
|
});
|
||||||
|
|
||||||
process.on('SIGUSR2', async() => {
|
let server;
|
||||||
if (container) await container.rm();
|
const PARALLEL = false;
|
||||||
});
|
const SETUP_TIMEOUT = 15 * 60 * 1000;
|
||||||
|
const SPEC_TIMEOUT = 30 * 1000;
|
||||||
|
|
||||||
process.on('exit', async function() {
|
process.on('exit', teardown);
|
||||||
if (container) await container.rm();
|
process.on('uncaughtException', onError);
|
||||||
});
|
process.on('unhandledRejection', onError);
|
||||||
|
|
||||||
|
const exitSignals = [
|
||||||
|
'SIGINT',
|
||||||
|
'SIGUSR1',
|
||||||
|
'SIGUSR2'
|
||||||
|
];
|
||||||
|
for (const signal of exitSignals)
|
||||||
|
process.on(signal, () => process.exit());
|
||||||
|
|
||||||
|
async function setup() {
|
||||||
|
console.log('Building and running DB container.');
|
||||||
|
|
||||||
|
const myt = new Myt();
|
||||||
|
await myt.init({
|
||||||
|
workspace: path.join(__dirname, '..'),
|
||||||
|
random: true,
|
||||||
|
ci: opts.ci,
|
||||||
|
tmpfs: process.platform == 'linux',
|
||||||
|
network: opts.network || null
|
||||||
|
});
|
||||||
|
server = await myt.run(Run);
|
||||||
|
await myt.deinit();
|
||||||
|
|
||||||
|
const {dbConfig} = server;
|
||||||
|
process.env.DB_HOST = dbConfig.host;
|
||||||
|
process.env.DB_PORT = dbConfig.port;
|
||||||
|
|
||||||
|
if (!PARALLEL)
|
||||||
|
await helper.init();
|
||||||
|
}
|
||||||
|
|
||||||
|
async function teardown() {
|
||||||
|
if (!server) return;
|
||||||
|
const oldServer = server;
|
||||||
|
server = null;
|
||||||
|
|
||||||
|
if (!PARALLEL)
|
||||||
|
await helper.deinit();
|
||||||
|
|
||||||
|
console.log('Stopping and removing DB container.');
|
||||||
|
await oldServer.rm();
|
||||||
|
}
|
||||||
|
|
||||||
|
async function onError(err) {
|
||||||
|
console.error(err);
|
||||||
|
process.exit(1);
|
||||||
|
}
|
||||||
|
|
||||||
let container;
|
|
||||||
async function test() {
|
async function test() {
|
||||||
let isCI = false;
|
let runner;
|
||||||
|
const config = {
|
||||||
|
globalSetup: setup,
|
||||||
|
globalSetupTimeout: SETUP_TIMEOUT,
|
||||||
|
globalTeardown: teardown,
|
||||||
|
globalTeardownTimeout: SETUP_TIMEOUT,
|
||||||
|
spec_dir: '.',
|
||||||
|
spec_files: [
|
||||||
|
'back/**/*[sS]pec.js',
|
||||||
|
'loopback/**/*[sS]pec.js',
|
||||||
|
'modules/*/back/**/*.[sS]pec.js'
|
||||||
|
],
|
||||||
|
helpers: []
|
||||||
|
};
|
||||||
|
|
||||||
if (process.argv[2] === 'ci')
|
if (PARALLEL) {
|
||||||
isCI = true;
|
const ParallelRunner = require('jasmine/parallel');
|
||||||
|
runner = new ParallelRunner({numWorkers: 1});
|
||||||
|
config.helpers.push(`back/tests-helper.js`);
|
||||||
|
} else {
|
||||||
|
const Jasmine = require('jasmine');
|
||||||
|
runner = new Jasmine();
|
||||||
|
|
||||||
container = new Docker();
|
const SpecReporter = require('jasmine-spec-reporter').SpecReporter;
|
||||||
|
runner.addReporter(new SpecReporter({
|
||||||
await container.run(isCI);
|
spec: {
|
||||||
dataSources = JSON.parse(JSON.stringify(dataSources));
|
displaySuccessful: opts.ci,
|
||||||
|
displayPending: opts.ci
|
||||||
Object.assign(dataSources.vn, {
|
},
|
||||||
host: container.dbConf.host,
|
summary: {
|
||||||
port: container.dbConf.port
|
displayPending: false,
|
||||||
});
|
}
|
||||||
|
}));
|
||||||
const bootOptions = {dataSources};
|
|
||||||
const app = require('vn-loopback/server/server');
|
|
||||||
await new Promise((resolve, reject) => {
|
|
||||||
app.boot(bootOptions,
|
|
||||||
err => err ? reject(err) : resolve());
|
|
||||||
});
|
|
||||||
// FIXME: Workaround to wait for loopback to be ready
|
|
||||||
await app.models.Application.status();
|
|
||||||
|
|
||||||
const Jasmine = require('jasmine');
|
|
||||||
const jasmine = new Jasmine();
|
|
||||||
|
|
||||||
const SpecReporter = require('jasmine-spec-reporter').SpecReporter;
|
|
||||||
jasmine.addReporter(new SpecReporter({
|
|
||||||
spec: {
|
|
||||||
displaySuccessful: isCI,
|
|
||||||
displayPending: isCI
|
|
||||||
},
|
|
||||||
summary: {
|
|
||||||
displayPending: false,
|
|
||||||
}
|
|
||||||
}));
|
|
||||||
|
|
||||||
if (isCI) {
|
|
||||||
const JunitReporter = require('jasmine-reporters');
|
|
||||||
jasmine.addReporter(new JunitReporter.JUnitXmlReporter());
|
|
||||||
|
|
||||||
jasmine.jasmine.DEFAULT_TIMEOUT_INTERVAL = 90000;
|
|
||||||
jasmine.exitOnCompletion = true;
|
|
||||||
}
|
}
|
||||||
|
|
||||||
const backSpecs = [
|
if (opts.junit) {
|
||||||
'./back/**/*[sS]pec.js',
|
const JunitReporter = require('jasmine-reporters');
|
||||||
'./loopback/**/*[sS]pec.js',
|
runner.addReporter(new JunitReporter.JUnitXmlReporter());
|
||||||
'./modules/*/back/**/*.[sS]pec.js'
|
}
|
||||||
];
|
if (opts.ci)
|
||||||
|
runner.jasmine.DEFAULT_TIMEOUT_INTERVAL = SPEC_TIMEOUT;
|
||||||
|
|
||||||
jasmine.loadConfig({
|
// runner.loadConfigFile('back/jasmine.json');
|
||||||
spec_dir: '.',
|
runner.loadConfig(config);
|
||||||
spec_files: backSpecs,
|
process.env.SPEC_IS_RUNNING = true;
|
||||||
helpers: [],
|
await runner.execute();
|
||||||
});
|
|
||||||
|
|
||||||
await jasmine.execute();
|
|
||||||
if (app) await app.disconnect();
|
|
||||||
if (container) await container.rm();
|
|
||||||
console.log('App disconnected & container removed');
|
|
||||||
}
|
}
|
||||||
|
|
||||||
test();
|
test();
|
||||||
|
|
|
@ -1,49 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (model, property, accessType, permission, principalType, principalId)
|
|
||||||
VALUES
|
|
||||||
('ClientConsumptionQueue', '*', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Ticket', 'deliveryNotePdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Ticket', 'deliveryNoteEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Ticket', 'deliveryNoteCsvPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Ticket', 'deliveryNoteCsvEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'campaignMetricsPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'campaignMetricsEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'clientWelcomeHtml', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'clientWelcomeEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'creditRequestPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'creditRequestHtml', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'creditRequestEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'printerSetupHtml', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'printerSetupEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'sepaCoreEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'letterDebtorPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'letterDebtorStHtml', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'letterDebtorStEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'letterDebtorNdHtml', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'letterDebtorNdEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'clientDebtStatementPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'clientDebtStatementHtml', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'clientDebtStatementEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'incotermsAuthorizationPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'incotermsAuthorizationHtml', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'incotermsAuthorizationEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Client', 'consumptionSendQueued', 'WRITE', 'ALLOW', 'ROLE', 'system'),
|
|
||||||
('InvoiceOut', 'invoiceEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('InvoiceOut', 'exportationPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('InvoiceOut', 'sendQueued', 'WRITE', 'ALLOW', 'ROLE', 'system'),
|
|
||||||
('Ticket', 'invoiceCsvPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Ticket', 'invoiceCsvEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Supplier', 'campaignMetricsPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Supplier', 'campaignMetricsEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Travel', 'extraCommunityPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Travel', 'extraCommunityEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Entry', 'entryOrderPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('OsTicket', 'osTicketReportEmail', 'WRITE', 'ALLOW', 'ROLE', 'system'),
|
|
||||||
('Item', 'buyerWasteEmail', 'WRITE', 'ALLOW', 'ROLE', 'system'),
|
|
||||||
('Claim', 'claimPickupPdf', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Claim', 'claimPickupEmail', 'WRITE', 'ALLOW', 'ROLE', 'claimManager'),
|
|
||||||
('Item', 'labelPdf', 'READ', 'ALLOW', 'ROLE', 'employee');
|
|
||||||
|
|
||||||
INSERT INTO `salix`.`ACL` (model,property,accessType,permission,principalType,principalId)
|
|
||||||
VALUES ('Sector','*','READ','ALLOW','ROLE','employee');
|
|
||||||
INSERT INTO `salix`.`ACL` (model,property,accessType,permission,principalType,principalId)
|
|
||||||
VALUES ('Sector','*','WRITE','ALLOW','ROLE','employee');
|
|
|
@ -1,3 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Receipt', 'receiptPdf', '*', 'ALLOW', 'ROLE', 'salesAssistant');
|
|
|
@ -1,9 +0,0 @@
|
||||||
create table `vn`.`clientConsumptionQueue`
|
|
||||||
(
|
|
||||||
id INT NOT NULL AUTO_INCREMENT PRIMARY KEY,
|
|
||||||
params json not null,
|
|
||||||
queued datetime default current_timestamp() not null,
|
|
||||||
printed datetime null,
|
|
||||||
status varchar(50) default '' null
|
|
||||||
)
|
|
||||||
comment 'Queue for client consumption PDF mailing';
|
|
|
@ -1 +0,0 @@
|
||||||
rename table `vn`.`invoiceOut_queue` to `vn`.`invoiceOutQueue`;
|
|
|
@ -1,5 +0,0 @@
|
||||||
ALTER TABLE `vn`.`itemConfig`
|
|
||||||
ADD id int null PRIMARY KEY first;
|
|
||||||
|
|
||||||
ALTER TABLE `vn`.`itemConfig`
|
|
||||||
ADD wasteRecipients VARCHAR(50) NOT NULL comment 'Weekly waste report schedule recipients';
|
|
|
@ -1,10 +0,0 @@
|
||||||
create table `salix`.`printConfig`
|
|
||||||
(
|
|
||||||
id int auto_increment,
|
|
||||||
itRecipient varchar(50) null comment 'IT recipients for report mailing',
|
|
||||||
incidencesEmail varchar(50) null comment 'CAU destinatary email',
|
|
||||||
constraint printConfig_pk
|
|
||||||
primary key (id)
|
|
||||||
)
|
|
||||||
comment 'Print service config';
|
|
||||||
|
|
|
@ -1,6 +0,0 @@
|
||||||
alter table `vn`.`sample`
|
|
||||||
add model VARCHAR(25) null comment 'Model name in plural';
|
|
||||||
|
|
||||||
UPDATE vn.sample t
|
|
||||||
SET t.model = 'Clients'
|
|
||||||
WHERE t.id IN(12, 13, 14, 15, 16, 18, 19, 20);
|
|
|
@ -1 +0,0 @@
|
||||||
ALTER TABLE `account`.`user` ADD hasGrant TINYINT(1) NOT NULL;
|
|
|
@ -1,2 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (model,property,accessType,permission,principalId)
|
|
||||||
VALUES ('WorkerDisableExcluded','*','*','ALLOW','hr');
|
|
|
@ -1,3 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Business', '*', '*', 'ALLOW', 'ROLE', 'hr');
|
|
|
@ -1,3 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Sale', 'usesMana', '*', 'ALLOW', 'ROLE', 'employee');
|
|
|
@ -1,2 +0,0 @@
|
||||||
INSERT INTO `vn`.`payDem` (id,payDem)
|
|
||||||
VALUES (7,'0');
|
|
|
@ -1,4 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('InvoiceIn', 'invoiceInPdf', 'READ', 'ALLOW', 'ROLE', 'administrative'),
|
|
||||||
('InvoiceIn', 'invoiceInEmail', 'WRITE', 'ALLOW', 'ROLE', 'administrative');
|
|
|
@ -1,2 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (model,property,accessType,principalId)
|
|
||||||
VALUES ('Supplier','newSupplier','WRITE','administrative');
|
|
|
@ -1,63 +0,0 @@
|
||||||
USE util;
|
|
||||||
|
|
||||||
CREATE TABLE notification(
|
|
||||||
id INT PRIMARY KEY,
|
|
||||||
`name` VARCHAR(255) UNIQUE,
|
|
||||||
`description` VARCHAR(255)
|
|
||||||
);
|
|
||||||
|
|
||||||
CREATE TABLE notificationAcl(
|
|
||||||
notificationFk INT,
|
|
||||||
roleFk INT(10) unsigned,
|
|
||||||
PRIMARY KEY(notificationFk, roleFk)
|
|
||||||
);
|
|
||||||
|
|
||||||
ALTER TABLE `util`.`notificationAcl` ADD CONSTRAINT `notificationAcl_ibfk_1` FOREIGN KEY (`notificationFk`) REFERENCES `util`.`notification` (`id`)
|
|
||||||
ON DELETE CASCADE
|
|
||||||
ON UPDATE CASCADE;
|
|
||||||
|
|
||||||
ALTER TABLE `util`.`notificationAcl` ADD CONSTRAINT `notificationAcl_ibfk_2` FOREIGN KEY (`roleFk`) REFERENCES `account`.`role`(`id`)
|
|
||||||
ON DELETE RESTRICT
|
|
||||||
ON UPDATE CASCADE;
|
|
||||||
|
|
||||||
CREATE TABLE notificationSubscription(
|
|
||||||
notificationFk INT,
|
|
||||||
userFk INT(10) unsigned,
|
|
||||||
PRIMARY KEY(notificationFk, userFk)
|
|
||||||
);
|
|
||||||
|
|
||||||
ALTER TABLE `util`.`notificationSubscription` ADD CONSTRAINT `notificationSubscription_ibfk_1` FOREIGN KEY (`notificationFk`) REFERENCES `util`.`notification` (`id`)
|
|
||||||
ON DELETE CASCADE
|
|
||||||
ON UPDATE CASCADE;
|
|
||||||
|
|
||||||
ALTER TABLE `util`.`notificationSubscription` ADD CONSTRAINT `notificationSubscription_ibfk_2` FOREIGN KEY (`userFk`) REFERENCES `account`.`user`(`id`)
|
|
||||||
ON DELETE CASCADE
|
|
||||||
ON UPDATE CASCADE;
|
|
||||||
|
|
||||||
CREATE TABLE notificationQueue(
|
|
||||||
id INT PRIMARY KEY AUTO_INCREMENT,
|
|
||||||
notificationFk VARCHAR(255),
|
|
||||||
params JSON,
|
|
||||||
authorFk INT(10) unsigned NULL,
|
|
||||||
`status` ENUM('pending', 'sent', 'error') NOT NULL DEFAULT 'pending',
|
|
||||||
created DATETIME DEFAULT CURRENT_TIMESTAMP,
|
|
||||||
INDEX(notificationFk),
|
|
||||||
INDEX(authorFk),
|
|
||||||
INDEX(status)
|
|
||||||
);
|
|
||||||
|
|
||||||
ALTER TABLE `util`.`notificationQueue` ADD CONSTRAINT `nnotificationQueue_ibfk_1` FOREIGN KEY (`notificationFk`) REFERENCES `util`.`notification` (`name`)
|
|
||||||
ON DELETE CASCADE
|
|
||||||
ON UPDATE CASCADE;
|
|
||||||
|
|
||||||
ALTER TABLE `util`.`notificationQueue` ADD CONSTRAINT `notificationQueue_ibfk_2` FOREIGN KEY (`authorFk`) REFERENCES `account`.`user`(`id`)
|
|
||||||
ON DELETE CASCADE
|
|
||||||
ON UPDATE CASCADE;
|
|
||||||
|
|
||||||
CREATE TABLE notificationConfig(
|
|
||||||
id INT PRIMARY KEY AUTO_INCREMENT,
|
|
||||||
cleanDays MEDIUMINT
|
|
||||||
);
|
|
||||||
|
|
||||||
INSERT INTO notificationConfig
|
|
||||||
SET cleanDays = 90;
|
|
|
@ -1 +0,0 @@
|
||||||
ALTER TABLE `vn`.`supplier` MODIFY COLUMN payMethodFk tinyint(3) unsigned NULL;
|
|
|
@ -1 +0,0 @@
|
||||||
ALTER TABLE `vn`.`supplier` MODIFY COLUMN supplierActivityFk varchar(45) CHARACTER SET utf8mb3 COLLATE utf8mb3_general_ci DEFAULT NULL NULL;
|
|
|
@ -1,5 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (model, property, accessType, permission, principalType, principalId)
|
|
||||||
VALUES
|
|
||||||
('ClaimRma', '*', 'READ', 'ALLOW', 'ROLE', 'claimManager'),
|
|
||||||
('ClaimRma', '*', 'WRITE', 'ALLOW', 'ROLE', 'claimManager');
|
|
||||||
|
|
|
@ -1 +0,0 @@
|
||||||
ALTER TABLE `vn`.`claim` ADD rma varchar(100) NULL ;
|
|
|
@ -1,7 +0,0 @@
|
||||||
CREATE TABLE `vn`.`claimRma` (
|
|
||||||
id INT UNSIGNED auto_increment NOT NULL PRIMARY KEY,
|
|
||||||
code varchar(100) NOT NULL,
|
|
||||||
created timestamp DEFAULT current_timestamp() NOT NULL,
|
|
||||||
workerFk INTEGER UNSIGNED NOT NULL
|
|
||||||
)
|
|
||||||
ENGINE=InnoDB;
|
|
|
@ -1,3 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Notification', '*', 'WRITE', 'ALLOW', 'ROLE', 'developer');
|
|
|
@ -1,12 +0,0 @@
|
||||||
CREATE TABLE `vn`.`packingSiteConfig` (
|
|
||||||
`id` INT(11) NOT NULL AUTO_INCREMENT,
|
|
||||||
`shinobiUrl` varchar(255) NOT NULL,
|
|
||||||
`shinobiToken` varchar(255) NOT NULL,
|
|
||||||
`shinobiGroupKey` varchar(255) NOT NULL,
|
|
||||||
`avgBoxingTime` INT(3) NULL,
|
|
||||||
PRIMARY KEY (`id`)
|
|
||||||
);
|
|
||||||
|
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Boxing', '*', '*', 'ALLOW', 'ROLE', 'employee');
|
|
|
@ -1,56 +0,0 @@
|
||||||
ALTER TABLE `vn`.`packingSite` ADD monitorId varchar(255) NULL;
|
|
||||||
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'VbiUcajdaT'
|
|
||||||
WHERE code = 'h1';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'qKMPn9aaVe'
|
|
||||||
WHERE code = 'h2';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = '3CtdIAGPAv'
|
|
||||||
WHERE code = 'h3';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'Xme2hiqz1f'
|
|
||||||
WHERE code = 'h4';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'aulxefgfJU'
|
|
||||||
WHERE code = 'h5';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = '6Ou0D1bhBw'
|
|
||||||
WHERE code = 'h6';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'eVUvnE6pNw'
|
|
||||||
WHERE code = 'h7';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = '0wsmSvqmrs'
|
|
||||||
WHERE code = 'h8';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'r2l2RyyF4I'
|
|
||||||
WHERE code = 'h9';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'EdjHLIiDVD'
|
|
||||||
WHERE code = 'h10';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'czC45kmwqI'
|
|
||||||
WHERE code = 'h11';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'PNsmxPaCwQ'
|
|
||||||
WHERE code = 'h12';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'agVssO0FDC'
|
|
||||||
WHERE code = 'h13';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'f2SPNENHPo'
|
|
||||||
WHERE code = 'h14';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = '6UR7gUZxks'
|
|
||||||
WHERE code = 'h15';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'bOB0f8WZ2V'
|
|
||||||
WHERE code = 'h16';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = 'MIR1nXaL0n'
|
|
||||||
WHERE code = 'h17';
|
|
||||||
UPDATE `vn`.`packingSite`
|
|
||||||
SET monitorId = '0Oj9SgGTXR'
|
|
||||||
WHERE code = 'h18';
|
|
|
@ -1,33 +0,0 @@
|
||||||
CREATE TABLE `salix`.`url` (
|
|
||||||
`appName` varchar(100) NOT NULL,
|
|
||||||
`environment` varchar(100) NOT NULL,
|
|
||||||
`url` varchar(255) NOT NULL,
|
|
||||||
PRIMARY KEY (`appName`,`environment`)
|
|
||||||
);
|
|
||||||
|
|
||||||
INSERT INTO `salix`.`url` (`appName`, `environment`, `url`)
|
|
||||||
VALUES
|
|
||||||
('salix', 'production', 'https://salix.verdnatura.es/#!/');
|
|
||||||
INSERT INTO `salix`.`url` (`appName`, `environment`, `url`)
|
|
||||||
VALUES
|
|
||||||
('salix', 'test', 'https://test-salix.verdnatura.es/#!/');
|
|
||||||
INSERT INTO `salix`.`url` (`appName`, `environment`, `url`)
|
|
||||||
VALUES
|
|
||||||
('salix', 'dev', 'http://localhost:5000/#!/');
|
|
||||||
INSERT INTO `salix`.`url` (`appName`, `environment`, `url`)
|
|
||||||
VALUES
|
|
||||||
('lilium', 'production', 'https://lilium.verdnatura.es/#/');
|
|
||||||
INSERT INTO `salix`.`url` (`appName`, `environment`, `url`)
|
|
||||||
VALUES
|
|
||||||
('lilium', 'test', 'https://test-lilium.verdnatura.es/#/');
|
|
||||||
INSERT INTO `salix`.`url` (`appName`, `environment`, `url`)
|
|
||||||
VALUES
|
|
||||||
('lilium', 'dev', 'http://localhost:8080/#/');
|
|
||||||
|
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Url', '*', 'READ', 'ALLOW', 'ROLE', 'employee');
|
|
||||||
|
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Url', '*', 'WRITE', 'ALLOW', 'ROLE', 'it');
|
|
|
@ -1,2 +0,0 @@
|
||||||
DELETE FROM `salix`.`ACL`
|
|
||||||
WHERE model = 'UserPassword';
|
|
|
@ -1 +0,0 @@
|
||||||
ALTER TABLE `vn`.`claimConfig` DROP COLUMN `pickupContact`;
|
|
|
@ -1,4 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (model, property, accessType, permission, principalType, principalId)
|
|
||||||
VALUES
|
|
||||||
('ItemShelving', '*', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('ItemShelving', '*', 'WRITE', 'ALLOW', 'ROLE', 'production');
|
|
|
@ -1,4 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (model, property, accessType, permission, principalType, principalId)
|
|
||||||
VALUES
|
|
||||||
('ItemShelvingPlacementSupplyStock', '*', 'READ', 'ALLOW', 'ROLE', 'employee');
|
|
||||||
|
|
|
@ -1 +0,0 @@
|
||||||
ALTER TABLE `vn`.`workerTimeControlMail` CHANGE emailResponse reason text CHARACTER SET utf8mb3 COLLATE utf8mb3_unicode_ci DEFAULT NULL NULL;
|
|
|
@ -1,54 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `vn`.`zone_getPostalCode`;
|
|
||||||
|
|
||||||
DELIMITER $$
|
|
||||||
$$
|
|
||||||
CREATE DEFINER=`root`@`localhost` PROCEDURE `vn`.`zone_getPostalCode`(vSelf INT)
|
|
||||||
BEGIN
|
|
||||||
/**
|
|
||||||
* Devuelve los códigos postales incluidos en una zona
|
|
||||||
*/
|
|
||||||
DECLARE vGeoFk INT DEFAULT NULL;
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE IF EXISTS tmp.zoneNodes;
|
|
||||||
CREATE TEMPORARY TABLE tmp.zoneNodes (
|
|
||||||
geoFk INT,
|
|
||||||
name VARCHAR(100),
|
|
||||||
parentFk INT,
|
|
||||||
sons INT,
|
|
||||||
isChecked BOOL DEFAULT 0,
|
|
||||||
zoneFk INT,
|
|
||||||
PRIMARY KEY zoneNodesPk (zoneFk, geoFk),
|
|
||||||
INDEX(geoFk))
|
|
||||||
ENGINE = MEMORY;
|
|
||||||
|
|
||||||
CALL zone_getLeaves2(vSelf, NULL , NULL);
|
|
||||||
|
|
||||||
UPDATE tmp.zoneNodes zn
|
|
||||||
SET isChecked = 0
|
|
||||||
WHERE parentFk IS NULL;
|
|
||||||
|
|
||||||
myLoop: LOOP
|
|
||||||
SET vGeoFk = NULL;
|
|
||||||
SELECT geoFk INTO vGeoFk
|
|
||||||
FROM tmp.zoneNodes zn
|
|
||||||
WHERE NOT isChecked
|
|
||||||
LIMIT 1;
|
|
||||||
|
|
||||||
CALL zone_getLeaves2(vSelf, vGeoFk, NULL);
|
|
||||||
UPDATE tmp.zoneNodes
|
|
||||||
SET isChecked = TRUE
|
|
||||||
WHERE geoFk = vGeoFk;
|
|
||||||
|
|
||||||
IF vGeoFk IS NULL THEN
|
|
||||||
LEAVE myLoop;
|
|
||||||
END IF;
|
|
||||||
END LOOP;
|
|
||||||
|
|
||||||
DELETE FROM tmp.zoneNodes
|
|
||||||
WHERE sons > 0;
|
|
||||||
|
|
||||||
SELECT zn.geoFk, zn.name
|
|
||||||
FROM tmp.zoneNodes zn
|
|
||||||
JOIN zone z ON z.id = zn.zoneFk;
|
|
||||||
END$$
|
|
||||||
DELIMITER ;
|
|
|
@ -1,2 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (model,property,accessType,permission,principalType,principalId)
|
|
||||||
VALUES ('NotificationQueue','*','*','ALLOW','ROLE','employee');
|
|
|
@ -1,7 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('InvoiceOut', 'clientsToInvoice', 'WRITE', 'ALLOW', 'ROLE', 'invoicing');
|
|
||||||
|
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('InvoiceOut', 'invoiceClient', 'WRITE', 'ALLOW', 'ROLE', 'invoicing');
|
|
|
@ -1 +0,0 @@
|
||||||
Alter table `vn`.`expedition` RENAME COLUMN itemFk TO itemFk__;
|
|
|
@ -1,8 +0,0 @@
|
||||||
ALTER TABLE
|
|
||||||
`vn`.`client`
|
|
||||||
ADD
|
|
||||||
COLUMN `hasElectronicInvoice` TINYINT(1) NOT NULL DEFAULT 0 COMMENT 'Registro de facturas mediante FACe'
|
|
||||||
AFTER
|
|
||||||
`hasInvoiceSimplified`;
|
|
||||||
|
|
||||||
-- sería más correcto hasElectronicInvoice pero ya existe un campo hasInvoiceSimplified
|
|
|
@ -1 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `vn`.`collection_missingTrash`;
|
|
|
@ -1 +0,0 @@
|
||||||
DROP TABLE `vn`.`invoiceOutQueue`;
|
|
|
@ -1,4 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Sale', 'editTracked', 'WRITE', 'ALLOW', 'ROLE', 'production'),
|
|
||||||
('Sale', 'editFloramondo', 'WRITE', 'ALLOW', 'ROLE', 'salesAssistant');
|
|
|
@ -1 +0,0 @@
|
||||||
ALTER TABLE `vn`.`greuge` CHANGE `userFK` `userFk` int(10) unsigned DEFAULT NULL NULL;
|
|
|
@ -1,4 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('Receipt', 'balanceCompensationEmail', 'WRITE', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Receipt', 'balanceCompensationPdf', 'READ', 'ALLOW', 'ROLE', 'employee');
|
|
|
@ -1,8 +0,0 @@
|
||||||
ALTER TABLE `vn`.`osTicketConfig` DROP COLUMN `action`;
|
|
||||||
ALTER TABLE `vn`.`osTicketConfig` ADD responseType varchar(100) NULL;
|
|
||||||
ALTER TABLE `vn`.`osTicketConfig` ADD fromEmailId INT NULL;
|
|
||||||
ALTER TABLE `vn`.`osTicketConfig` ADD replyTo varchar(100) NULL;
|
|
||||||
|
|
||||||
UPDATE `vn`.`osTicketConfig`
|
|
||||||
SET responseType='reply', fromEmailId=5, replyTo='all'
|
|
||||||
WHERE id=0;
|
|
|
@ -1,14 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `vn`.`ticket_canMerge`;
|
|
||||||
|
|
||||||
DELIMITER $$
|
|
||||||
$$
|
|
||||||
CREATE DEFINER=`root`@`localhost` PROCEDURE `vn`.`ticket_canMerge`(vDated DATE, vScopeDays INT, vLitersMax INT, vLinesMax INT, vWarehouseFk INT)
|
|
||||||
BEGIN
|
|
||||||
CALL vn.ticket_canbePostponed(vDated,TIMESTAMPADD(DAY, vScopeDays, vDated),vLitersMax,vLinesMax,vWarehouseFk);
|
|
||||||
END $$
|
|
||||||
DELIMITER ;
|
|
||||||
|
|
||||||
INSERT INTO `salix`.`ACL` (model, property, accessType, permission, principalType, principalId)
|
|
||||||
VALUES
|
|
||||||
('Ticket', 'getTicketsFuture', 'READ', 'ALLOW', 'ROLE', 'employee'),
|
|
||||||
('Ticket', 'merge', 'WRITE', 'ALLOW', 'ROLE', 'employee');
|
|
|
@ -1,79 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `vn`.`ticket_canbePostponed`;
|
|
||||||
|
|
||||||
DELIMITER $$
|
|
||||||
$$
|
|
||||||
CREATE DEFINER=`root`@`localhost` PROCEDURE `vn`.`ticket_canbePostponed`(vOriginDated DATE, vFutureDated DATE, vLitersMax INT, vLinesMax INT, vWarehouseFk INT)
|
|
||||||
BEGIN
|
|
||||||
/**
|
|
||||||
* Devuelve un listado de tickets susceptibles de fusionarse con otros tickets en el futuro
|
|
||||||
*
|
|
||||||
* @param vOriginDated Fecha en cuestión
|
|
||||||
* @param vFutureDated Fecha en el futuro a sondear
|
|
||||||
* @param vLitersMax Volumen máximo de los tickets a catapultar
|
|
||||||
* @param vLinesMax Número máximo de lineas de los tickets a catapultar
|
|
||||||
* @param vWarehouseFk Identificador de vn.warehouse
|
|
||||||
*/
|
|
||||||
DROP TEMPORARY TABLE IF EXISTS tmp.filter;
|
|
||||||
CREATE TEMPORARY TABLE tmp.filter
|
|
||||||
(INDEX (id))
|
|
||||||
SELECT sv.ticketFk id,
|
|
||||||
GROUP_CONCAT(DISTINCT i.itemPackingTypeFk ORDER BY i.itemPackingTypeFk) ipt,
|
|
||||||
CAST(sum(litros) AS DECIMAL(10,0)) liters,
|
|
||||||
CAST(count(*) AS DECIMAL(10,0)) `lines`,
|
|
||||||
st.name state,
|
|
||||||
sub2.id ticketFuture,
|
|
||||||
t.landed originETD,
|
|
||||||
sub2.landed destETD,
|
|
||||||
sub2.iptd tfIpt,
|
|
||||||
sub2.state tfState,
|
|
||||||
t.clientFk,
|
|
||||||
t.warehouseFk,
|
|
||||||
ts.alertLevel,
|
|
||||||
t.shipped,
|
|
||||||
sub2.shipped tfShipped,
|
|
||||||
t.workerFk,
|
|
||||||
st.code code,
|
|
||||||
sub2.code tfCode
|
|
||||||
FROM vn.saleVolume sv
|
|
||||||
JOIN vn.sale s ON s.id = sv.saleFk
|
|
||||||
JOIN vn.item i ON i.id = s.itemFk
|
|
||||||
JOIN vn.ticket t ON t.id = sv.ticketFk
|
|
||||||
JOIN vn.address a ON a.id = t.addressFk
|
|
||||||
JOIN vn.province p ON p.id = a.provinceFk
|
|
||||||
JOIN vn.country c ON c.id = p.countryFk
|
|
||||||
JOIN vn.ticketState ts ON ts.ticketFk = t.id
|
|
||||||
JOIN vn.state st ON st.id = ts.stateFk
|
|
||||||
JOIN vn.alertLevel al ON al.id = ts.alertLevel
|
|
||||||
LEFT JOIN vn.ticketParking tp ON tp.ticketFk = t.id
|
|
||||||
LEFT JOIN (
|
|
||||||
SELECT *
|
|
||||||
FROM (
|
|
||||||
SELECT
|
|
||||||
t.addressFk ,
|
|
||||||
t.id,
|
|
||||||
t.landed,
|
|
||||||
t.shipped,
|
|
||||||
st.name state,
|
|
||||||
st.code code,
|
|
||||||
GROUP_CONCAT(DISTINCT i.itemPackingTypeFk ORDER BY i.itemPackingTypeFk) iptd
|
|
||||||
FROM vn.ticket t
|
|
||||||
JOIN vn.ticketState ts ON ts.ticketFk = t.id
|
|
||||||
JOIN vn.state st ON st.id = ts.stateFk
|
|
||||||
JOIN vn.sale s ON s.ticketFk = t.id
|
|
||||||
JOIN vn.item i ON i.id = s.itemFk
|
|
||||||
WHERE t.shipped BETWEEN vFutureDated
|
|
||||||
AND util.dayend(vFutureDated)
|
|
||||||
AND t.warehouseFk = vWarehouseFk
|
|
||||||
GROUP BY t.id
|
|
||||||
) sub
|
|
||||||
GROUP BY sub.addressFk
|
|
||||||
) sub2 ON sub2.addressFk = t.addressFk AND t.id != sub2.id
|
|
||||||
WHERE t.shipped BETWEEN vOriginDated AND util.dayend(vOriginDated)
|
|
||||||
AND t.warehouseFk = vWarehouseFk
|
|
||||||
AND al.code = 'FREE'
|
|
||||||
AND tp.ticketFk IS NULL
|
|
||||||
GROUP BY sv.ticketFk
|
|
||||||
HAVING liters <= IFNULL(vLitersMax, 9999) AND `lines` <= IFNULL(vLinesMax, 9999) AND ticketFuture;
|
|
||||||
END$$
|
|
||||||
DELIMITER ;
|
|
||||||
|
|
|
@ -1,88 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `vn`.`timeBusiness_calculate`;
|
|
||||||
|
|
||||||
DELIMITER $$
|
|
||||||
$$
|
|
||||||
CREATE DEFINER=`root`@`localhost` PROCEDURE `vn`.`timeBusiness_calculate`(vDatedFrom DATETIME, vDatedTo DATETIME)
|
|
||||||
BEGIN
|
|
||||||
/**
|
|
||||||
* Horas que debe trabajar un empleado según contrato y día.
|
|
||||||
* @param vDatedFrom workerTimeControl
|
|
||||||
* @param vDatedTo workerTimeControl
|
|
||||||
* @table tmp.user(userFk)
|
|
||||||
* @return tmp.timeBusinessCalculate
|
|
||||||
*/
|
|
||||||
DROP TEMPORARY TABLE IF EXISTS tmp.timeBusinessCalculate;
|
|
||||||
CREATE TEMPORARY TABLE tmp.timeBusinessCalculate
|
|
||||||
(INDEX (departmentFk))
|
|
||||||
SELECT dated,
|
|
||||||
businessFk,
|
|
||||||
userFk,
|
|
||||||
departmentFk,
|
|
||||||
hourStart,
|
|
||||||
hourEnd,
|
|
||||||
timeTable,
|
|
||||||
timeWorkSeconds,
|
|
||||||
SEC_TO_TIME(timeWorkSeconds) timeWorkSexagesimal,
|
|
||||||
timeWorkSeconds / 3600 timeWorkDecimal,
|
|
||||||
timeWorkSeconds timeBusinessSeconds,
|
|
||||||
SEC_TO_TIME(timeWorkSeconds) timeBusinessSexagesimal,
|
|
||||||
timeWorkSeconds / 3600 timeBusinessDecimal,
|
|
||||||
name type,
|
|
||||||
permissionRate,
|
|
||||||
hoursWeek,
|
|
||||||
discountRate,
|
|
||||||
isAllowedToWork
|
|
||||||
FROM(SELECT t.dated,
|
|
||||||
b.id businessFk,
|
|
||||||
w.id,
|
|
||||||
b.departmentFk,
|
|
||||||
IF(j.start = NULL, NULL, GROUP_CONCAT(DISTINCT LEFT(j.start,5) ORDER BY j.start ASC SEPARATOR ' - ')) hourStart ,
|
|
||||||
IF(j.start = NULL, NULL, GROUP_CONCAT(DISTINCT LEFT(j.end,5) ORDER BY j.end ASC SEPARATOR ' - ')) hourEnd,
|
|
||||||
IF(j.start = NULL, NULL, GROUP_CONCAT(DISTINCT LEFT(j.start,5), " - ", LEFT(j.end,5) ORDER BY j.end ASC SEPARATOR ' - ')) timeTable,
|
|
||||||
IF(j.start = NULL, 0, IFNULL(SUM(TIME_TO_SEC(j.end)) - SUM(TIME_TO_SEC(j.start)), 0)) timeWorkSeconds,
|
|
||||||
at2.name,
|
|
||||||
at2.permissionRate,
|
|
||||||
at2.discountRate,
|
|
||||||
cl.hours_week hoursWeek,
|
|
||||||
at2.isAllowedToWork
|
|
||||||
FROM time t
|
|
||||||
LEFT JOIN business b ON t.dated BETWEEN b.started AND IFNULL(b.ended, vDatedTo)
|
|
||||||
LEFT JOIN worker w ON w.id = b.workerFk
|
|
||||||
JOIN tmp.`user` u ON u.userFK = w.id
|
|
||||||
LEFT JOIN workCenter wc ON wc.id = b.workcenterFK
|
|
||||||
LEFT JOIN postgresql.calendar_labour_type cl ON cl.calendar_labour_type_id = b.calendarTypeFk
|
|
||||||
LEFT JOIN postgresql.journey j ON j.business_id = b.id AND j.day_id = WEEKDAY(t.dated) + 1
|
|
||||||
LEFT JOIN postgresql.calendar_employee ce ON ce.businessFk = b.id AND ce.date = t.dated
|
|
||||||
LEFT JOIN absenceType at2 ON at2.id = ce.calendar_state_id
|
|
||||||
WHERE t.dated BETWEEN vDatedFrom AND vDatedTo
|
|
||||||
GROUP BY w.id, t.dated
|
|
||||||
)sub;
|
|
||||||
|
|
||||||
UPDATE tmp.timeBusinessCalculate t
|
|
||||||
LEFT JOIN postgresql.journey j ON j.business_id = t.businessFk
|
|
||||||
SET t.timeWorkSeconds = t.hoursWeek / 5 * 3600,
|
|
||||||
t.timeWorkSexagesimal = SEC_TO_TIME( t.hoursWeek / 5 * 3600),
|
|
||||||
t.timeWorkDecimal = t.hoursWeek / 5,
|
|
||||||
t.timeBusinessSeconds = t.hoursWeek / 5 * 3600,
|
|
||||||
t.timeBusinessSexagesimal = SEC_TO_TIME( t.hoursWeek / 5 * 3600),
|
|
||||||
t.timeBusinessDecimal = t.hoursWeek / 5
|
|
||||||
WHERE DAYOFWEEK(t.dated) IN(2,3,4,5,6) AND j.journey_id IS NULL ;
|
|
||||||
|
|
||||||
UPDATE tmp.timeBusinessCalculate t
|
|
||||||
SET t.timeWorkSeconds = t.timeWorkSeconds - (t.timeWorkSeconds * permissionRate) ,
|
|
||||||
t.timeWorkSexagesimal = SEC_TO_TIME ((t.timeWorkDecimal - (t.timeWorkDecimal * permissionRate)) * 3600),
|
|
||||||
t.timeWorkDecimal = t.timeWorkDecimal - (t.timeWorkDecimal * permissionRate)
|
|
||||||
WHERE permissionRate <> 0;
|
|
||||||
|
|
||||||
UPDATE tmp.timeBusinessCalculate t
|
|
||||||
JOIN calendarHolidays ch ON ch.dated = t.dated
|
|
||||||
JOIN business b ON b.id = t.businessFk
|
|
||||||
AND b.workcenterFk = ch.workcenterFk
|
|
||||||
SET t.timeWorkSeconds = 0,
|
|
||||||
t.timeWorkSexagesimal = 0,
|
|
||||||
t.timeWorkDecimal = 0,
|
|
||||||
t.permissionrate = 1,
|
|
||||||
t.type = 'Festivo'
|
|
||||||
WHERE t.type IS NULL;
|
|
||||||
END$$
|
|
||||||
DELIMITER ;
|
|
|
@ -1,6 +0,0 @@
|
||||||
UPDATE
|
|
||||||
`vn`.`client`
|
|
||||||
SET
|
|
||||||
hasElectronicInvoice = TRUE
|
|
||||||
WHERE
|
|
||||||
businessTypeFk = 'officialOrganism';
|
|
|
@ -1,4 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('MdbApp', 'lock', 'WRITE', 'ALLOW', 'ROLE', 'developer'),
|
|
||||||
('MdbApp', 'unlock', 'WRITE', 'ALLOW', 'ROLE', 'developer');
|
|
|
@ -1,3 +0,0 @@
|
||||||
UPDATE `vn`.`collection`
|
|
||||||
SET sectorFk=1
|
|
||||||
WHERE id=1;
|
|
|
@ -1 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`,`property`,`accessType`,`permission`,`principalId`) VALUES ('Dms','saveSign','*','ALLOW','employee');
|
|
|
@ -1,3 +0,0 @@
|
||||||
INSERT INTO `salix`.`ACL` (`model`, `property`, `accessType`, `permission`, `principalType`, `principalId`)
|
|
||||||
VALUES
|
|
||||||
('TicketLog', 'getChanges', 'READ', 'ALLOW', 'ROLE', 'employee');
|
|
|
@ -1 +0,0 @@
|
||||||
ALTER TABLE `vn`.`entry` DROP COLUMN `ref`;
|
|
|
@ -1,12 +0,0 @@
|
||||||
CREATE TABLE `vn`.`invoiceInConfig` (
|
|
||||||
`id` int(11) NOT NULL AUTO_INCREMENT,
|
|
||||||
`retentionRate` int(3) NOT NULL,
|
|
||||||
`retentionName` varchar(25) NOT NULL,
|
|
||||||
`sageWithholdingFk` smallint(6) NOT NULL,
|
|
||||||
PRIMARY KEY (`id`),
|
|
||||||
CONSTRAINT `invoiceInConfig_sageWithholdingFk` FOREIGN KEY (`sageWithholdingFk`) REFERENCES `sage`.`TiposRetencion`(`CodigoRetencion`) ON DELETE CASCADE ON UPDATE CASCADE
|
|
||||||
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb3 COLLATE=utf8mb3_unicode_ci;
|
|
||||||
|
|
||||||
INSERT INTO `vn`.`invoiceInConfig` (`id`, `retentionRate`, `retentionName`, `sageWithholdingFk`)
|
|
||||||
VALUES
|
|
||||||
(1, -2, 'Retención 2%', 2);
|
|
|
@ -1,225 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `vn`.`invoiceOut_new`;
|
|
||||||
DELIMITER $$
|
|
||||||
CREATE DEFINER=`root`@`localhost` PROCEDURE `vn`.`invoiceOut_new`(
|
|
||||||
vSerial VARCHAR(255),
|
|
||||||
vInvoiceDate DATETIME,
|
|
||||||
vTaxArea VARCHAR(25),
|
|
||||||
OUT vNewInvoiceId INT)
|
|
||||||
BEGIN
|
|
||||||
/**
|
|
||||||
* Creación de facturas emitidas.
|
|
||||||
* requiere previamente tabla tmp.ticketToInvoice(id).
|
|
||||||
*
|
|
||||||
* @param vSerial serie a la cual se hace la factura
|
|
||||||
* @param vInvoiceDate fecha de la factura
|
|
||||||
* @param vTaxArea tipo de iva en relacion a la empresa y al cliente
|
|
||||||
* @param vNewInvoiceId id de la factura que se acaba de generar
|
|
||||||
* @return vNewInvoiceId
|
|
||||||
*/
|
|
||||||
DECLARE vSpainCountryCode INT DEFAULT 1;
|
|
||||||
DECLARE vIsAnySaleToInvoice BOOL;
|
|
||||||
DECLARE vIsAnyServiceToInvoice BOOL;
|
|
||||||
DECLARE vNewRef VARCHAR(255);
|
|
||||||
DECLARE vWorker INT DEFAULT account.myUser_getId();
|
|
||||||
DECLARE vCompany INT;
|
|
||||||
DECLARE vSupplier INT;
|
|
||||||
DECLARE vClient INT;
|
|
||||||
DECLARE vCplusStandardInvoiceTypeFk INT DEFAULT 1;
|
|
||||||
DECLARE vCplusCorrectingInvoiceTypeFk INT DEFAULT 6;
|
|
||||||
DECLARE vCplusSimplifiedInvoiceTypeFk INT DEFAULT 2;
|
|
||||||
DECLARE vCorrectingSerial VARCHAR(1) DEFAULT 'R';
|
|
||||||
DECLARE vSimplifiedSerial VARCHAR(1) DEFAULT 'S';
|
|
||||||
DECLARE vNewInvoiceInId INT;
|
|
||||||
DECLARE vIsInterCompany BOOL;
|
|
||||||
|
|
||||||
SET vInvoiceDate = IFNULL(vInvoiceDate,CURDATE());
|
|
||||||
|
|
||||||
SELECT t.clientFk, t.companyFk
|
|
||||||
INTO vClient, vCompany
|
|
||||||
FROM tmp.ticketToInvoice tt
|
|
||||||
JOIN ticket t ON t.id = tt.id
|
|
||||||
LIMIT 1;
|
|
||||||
|
|
||||||
-- Eliminem de tmp.ticketToInvoice els tickets que no han de ser facturats
|
|
||||||
DELETE ti.*
|
|
||||||
FROM tmp.ticketToInvoice ti
|
|
||||||
JOIN ticket t ON t.id = ti.id
|
|
||||||
JOIN sale s ON s.ticketFk = t.id
|
|
||||||
JOIN item i ON i.id = s.itemFk
|
|
||||||
JOIN supplier su ON su.id = t.companyFk
|
|
||||||
JOIN client c ON c.id = t.clientFk
|
|
||||||
LEFT JOIN itemTaxCountry itc ON itc.itemFk = i.id AND itc.countryFk = su.countryFk
|
|
||||||
WHERE YEAR(t.shipped) < 2001
|
|
||||||
OR c.isTaxDataChecked = FALSE
|
|
||||||
OR t.isDeleted
|
|
||||||
OR c.hasToInvoice = FALSE
|
|
||||||
OR itc.id IS NULL;
|
|
||||||
|
|
||||||
SELECT SUM(s.quantity * s.price * (100 - s.discount)/100), ts.id
|
|
||||||
INTO vIsAnySaleToInvoice, vIsAnyServiceToInvoice
|
|
||||||
FROM tmp.ticketToInvoice t
|
|
||||||
LEFT JOIN sale s ON s.ticketFk = t.id
|
|
||||||
LEFT JOIN ticketService ts ON ts.ticketFk = t.id;
|
|
||||||
|
|
||||||
IF (vIsAnySaleToInvoice OR vIsAnyServiceToInvoice)
|
|
||||||
AND (vCorrectingSerial = vSerial OR NOT hasAnyNegativeBase())
|
|
||||||
THEN
|
|
||||||
|
|
||||||
-- el trigger añade el siguiente Id_Factura correspondiente a la vSerial
|
|
||||||
INSERT INTO invoiceOut
|
|
||||||
(
|
|
||||||
ref,
|
|
||||||
serial,
|
|
||||||
issued,
|
|
||||||
clientFk,
|
|
||||||
dued,
|
|
||||||
companyFk,
|
|
||||||
siiTypeInvoiceOutFk
|
|
||||||
)
|
|
||||||
SELECT
|
|
||||||
1,
|
|
||||||
vSerial,
|
|
||||||
vInvoiceDate,
|
|
||||||
vClient,
|
|
||||||
getDueDate(vInvoiceDate, dueDay),
|
|
||||||
vCompany,
|
|
||||||
IF(vSerial = vCorrectingSerial,
|
|
||||||
vCplusCorrectingInvoiceTypeFk,
|
|
||||||
IF(vSerial = vSimplifiedSerial,
|
|
||||||
vCplusSimplifiedInvoiceTypeFk,
|
|
||||||
vCplusStandardInvoiceTypeFk))
|
|
||||||
FROM client
|
|
||||||
WHERE id = vClient;
|
|
||||||
|
|
||||||
|
|
||||||
SET vNewInvoiceId = LAST_INSERT_ID();
|
|
||||||
|
|
||||||
SELECT `ref`
|
|
||||||
INTO vNewRef
|
|
||||||
FROM invoiceOut
|
|
||||||
WHERE id = vNewInvoiceId;
|
|
||||||
|
|
||||||
UPDATE ticket t
|
|
||||||
JOIN tmp.ticketToInvoice ti ON ti.id = t.id
|
|
||||||
SET t.refFk = vNewRef;
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE IF EXISTS tmp.updateInter;
|
|
||||||
CREATE TEMPORARY TABLE tmp.updateInter ENGINE = MEMORY
|
|
||||||
SELECT s.id,ti.id ticket_id,vWorker Id_Trabajador
|
|
||||||
FROM tmp.ticketToInvoice ti
|
|
||||||
LEFT JOIN ticketState ts ON ti.id = ts.ticket
|
|
||||||
JOIN state s
|
|
||||||
WHERE IFNULL(ts.alertLevel,0) < 3 and s.`code` = getAlert3State(ti.id);
|
|
||||||
|
|
||||||
INSERT INTO vncontrol.inter(state_id,Id_Ticket,Id_Trabajador)
|
|
||||||
SELECT * FROM tmp.updateInter;
|
|
||||||
|
|
||||||
INSERT INTO ticketLog (action, userFk, originFk, description)
|
|
||||||
SELECT 'UPDATE', account.myUser_getId(), ti.id, CONCAT('Crea factura ', vNewRef)
|
|
||||||
FROM tmp.ticketToInvoice ti;
|
|
||||||
|
|
||||||
CALL invoiceExpenseMake(vNewInvoiceId);
|
|
||||||
CALL invoiceTaxMake(vNewInvoiceId,vTaxArea);
|
|
||||||
|
|
||||||
UPDATE invoiceOut io
|
|
||||||
JOIN (
|
|
||||||
SELECT SUM(amount) AS total
|
|
||||||
FROM invoiceOutExpense
|
|
||||||
WHERE invoiceOutFk = vNewInvoiceId
|
|
||||||
) base
|
|
||||||
JOIN (
|
|
||||||
SELECT SUM(vat) AS total
|
|
||||||
FROM invoiceOutTax
|
|
||||||
WHERE invoiceOutFk = vNewInvoiceId
|
|
||||||
) vat
|
|
||||||
SET io.amount = base.total + vat.total
|
|
||||||
WHERE io.id = vNewInvoiceId;
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE tmp.updateInter;
|
|
||||||
|
|
||||||
SELECT ios.isCEE INTO vIsInterCompany
|
|
||||||
FROM vn.ticket t
|
|
||||||
JOIN vn.invoiceOut io ON io.`ref` = t.refFk
|
|
||||||
JOIN vn.invoiceOutSerial ios ON ios.code = io.serial
|
|
||||||
WHERE t.refFk = vNewRef
|
|
||||||
LIMIT 1;
|
|
||||||
|
|
||||||
IF (vIsInterCompany) THEN
|
|
||||||
|
|
||||||
SELECT vCompany INTO vSupplier;
|
|
||||||
SELECT id INTO vCompany FROM company WHERE clientFk = vClient;
|
|
||||||
|
|
||||||
INSERT INTO invoiceIn(supplierFk, supplierRef, issued, companyFk)
|
|
||||||
SELECT vSupplier, vNewRef, vInvoiceDate, vCompany;
|
|
||||||
|
|
||||||
SET vNewInvoiceInId = LAST_INSERT_ID();
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE IF EXISTS tmp.ticket;
|
|
||||||
CREATE TEMPORARY TABLE tmp.ticket
|
|
||||||
(KEY (ticketFk))
|
|
||||||
ENGINE = MEMORY
|
|
||||||
SELECT id ticketFk
|
|
||||||
FROM tmp.ticketToInvoice;
|
|
||||||
|
|
||||||
CALL `ticket_getTax`('NATIONAL');
|
|
||||||
|
|
||||||
SET @vTaxableBaseServices := 0.00;
|
|
||||||
SET @vTaxCodeGeneral := NULL;
|
|
||||||
|
|
||||||
INSERT INTO vn.invoiceInTax(invoiceInFk, taxableBase, expenseFk, taxTypeSageFk, transactionTypeSageFk)
|
|
||||||
SELECT vNewInvoiceInId, @vTaxableBaseServices, sub.expenseFk, sub.taxTypeSageFk , sub.transactionTypeSageFk
|
|
||||||
FROM (
|
|
||||||
SELECT @vTaxableBaseServices := SUM(tst.taxableBase) taxableBase, i.expenseFk, i.taxTypeSageFk , i.transactionTypeSageFk, @vTaxCodeGeneral := i.taxClassCodeFk
|
|
||||||
FROM tmp.ticketServiceTax tst
|
|
||||||
JOIN vn.invoiceOutTaxConfig i ON i.taxClassCodeFk = tst.code
|
|
||||||
WHERE i.isService
|
|
||||||
HAVING taxableBase
|
|
||||||
) sub;
|
|
||||||
|
|
||||||
INSERT INTO vn.invoiceInTax(invoiceInFk, taxableBase, expenseFk, taxTypeSageFk, transactionTypeSageFk)
|
|
||||||
SELECT vNewInvoiceInId, SUM(tt.taxableBase) - IF(tt.code = @vTaxCodeGeneral, @vTaxableBaseServices, 0) taxableBase, i.expenseFk, i.taxTypeSageFk , i.transactionTypeSageFk
|
|
||||||
FROM tmp.ticketTax tt
|
|
||||||
JOIN vn.invoiceOutTaxConfig i ON i.taxClassCodeFk = tt.code
|
|
||||||
WHERE !i.isService
|
|
||||||
GROUP BY tt.pgcFk
|
|
||||||
HAVING taxableBase
|
|
||||||
ORDER BY tt.priority;
|
|
||||||
|
|
||||||
CALL invoiceInDueDay_calculate(vNewInvoiceInId);
|
|
||||||
|
|
||||||
INSERT INTO invoiceInIntrastat (
|
|
||||||
invoiceInFk,
|
|
||||||
intrastatFk,
|
|
||||||
amount,
|
|
||||||
stems,
|
|
||||||
countryFk,
|
|
||||||
net)
|
|
||||||
SELECT
|
|
||||||
vNewInvoiceInId invoiceInFk,
|
|
||||||
i.intrastatFk,
|
|
||||||
CAST(SUM((s.quantity * s.price * (100 - s.discount) / 100 )) AS DECIMAL(10,2)) subtotal,
|
|
||||||
CAST(SUM(IFNULL(i.stems, 1) * s.quantity) AS DECIMAL(10,2)) stems,
|
|
||||||
su.countryFk,
|
|
||||||
CAST(SUM(IFNULL(i.stems, 1)
|
|
||||||
* s.quantity
|
|
||||||
* IF(ic.grams, ic.grams, i.weightByPiece) / 1000) AS DECIMAL(10,2)) netKg
|
|
||||||
FROM sale s
|
|
||||||
JOIN ticket t ON s.ticketFk = t.id
|
|
||||||
JOIN supplier su ON su.id = t.companyFk
|
|
||||||
JOIN item i ON i.id = s.itemFk
|
|
||||||
JOIN vn.itemCost ic ON ic.itemFk = i.id AND ic.warehouseFk = t.warehouseFk
|
|
||||||
JOIN intrastat ir ON ir.id = i.intrastatFk
|
|
||||||
WHERE t.refFk = vNewRef;
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE tmp.ticket;
|
|
||||||
DROP TEMPORARY TABLE tmp.ticketAmount;
|
|
||||||
DROP TEMPORARY TABLE tmp.ticketTax;
|
|
||||||
DROP TEMPORARY TABLE tmp.ticketServiceTax;
|
|
||||||
|
|
||||||
END IF;
|
|
||||||
|
|
||||||
END IF;
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE `tmp`.`ticketToInvoice`;
|
|
||||||
END$$
|
|
||||||
DELIMITER ;
|
|
|
@ -1,11 +0,0 @@
|
||||||
CREATE TABLE `vn`.`mdbApp` (
|
|
||||||
`app` varchar(100) COLLATE utf8mb3_unicode_ci NOT NULL,
|
|
||||||
`baselineBranchFk` varchar(255) COLLATE utf8mb3_unicode_ci DEFAULT NULL,
|
|
||||||
`userFk` int(10) unsigned DEFAULT NULL,
|
|
||||||
`locked` datetime DEFAULT NULL,
|
|
||||||
PRIMARY KEY (`app`),
|
|
||||||
KEY `mdbApp_FK` (`userFk`),
|
|
||||||
KEY `mdbApp_FK_1` (`baselineBranchFk`),
|
|
||||||
CONSTRAINT `mdbApp_FK` FOREIGN KEY (`userFk`) REFERENCES `account`.`user` (`id`) ON DELETE SET NULL ON UPDATE CASCADE,
|
|
||||||
CONSTRAINT `mdbApp_FK_1` FOREIGN KEY (`baselineBranchFk`) REFERENCES `mdbBranch` (`name`) ON UPDATE CASCADE
|
|
||||||
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb3 COLLATE=utf8mb3_unicode_ci
|
|
|
@ -1,24 +0,0 @@
|
||||||
DROP FUNCTION IF EXISTS `util`.`notification_send`;
|
|
||||||
|
|
||||||
DELIMITER $$
|
|
||||||
$$
|
|
||||||
CREATE DEFINER=`root`@`localhost` FUNCTION `util`.`notification_send`(vNotificationName VARCHAR(255), vParams TEXT, vAuthorFk INT) RETURNS int(11)
|
|
||||||
MODIFIES SQL DATA
|
|
||||||
BEGIN
|
|
||||||
/**
|
|
||||||
* Sends a notification.
|
|
||||||
*
|
|
||||||
* @param vNotificationName The notification name
|
|
||||||
* @param vParams The notification parameters formatted as JSON
|
|
||||||
* @param vAuthorFk The notification author or %NULL if there is no author
|
|
||||||
* @return The notification id
|
|
||||||
*/
|
|
||||||
|
|
||||||
INSERT INTO notificationQueue
|
|
||||||
SET notificationFk = vNotificationName,
|
|
||||||
params = vParams,
|
|
||||||
authorFk = vAuthorFk;
|
|
||||||
|
|
||||||
RETURN LAST_INSERT_ID();
|
|
||||||
END$$
|
|
||||||
DELIMITER ;
|
|
|
@ -1,8 +0,0 @@
|
||||||
CREATE TABLE `vn`.`ticketSms` (
|
|
||||||
`smsFk` mediumint(8) unsigned NOT NULL,
|
|
||||||
`ticketFk` int(11) DEFAULT NULL,
|
|
||||||
PRIMARY KEY (`smsFk`),
|
|
||||||
KEY `ticketSms_FK_1` (`ticketFk`),
|
|
||||||
CONSTRAINT `ticketSms_FK` FOREIGN KEY (`smsFk`) REFERENCES `sms` (`id`) ON UPDATE CASCADE,
|
|
||||||
CONSTRAINT `ticketSms_FK_1` FOREIGN KEY (`ticketFk`) REFERENCES `ticket` (`id`) ON UPDATE CASCADE
|
|
||||||
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb3 COLLATE=utf8mb3_unicode_ci
|
|
|
@ -1,104 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `vn`.`ticket_canAdvance`;
|
|
||||||
|
|
||||||
DELIMITER $$
|
|
||||||
$$
|
|
||||||
CREATE DEFINER=`root`@`localhost` PROCEDURE `vn`.`ticket_canAdvance`(vDateFuture DATE, vDateToAdvance DATE, vWarehouseFk INT)
|
|
||||||
BEGIN
|
|
||||||
/**
|
|
||||||
* Devuelve los tickets y la cantidad de lineas de venta que se pueden adelantar.
|
|
||||||
*
|
|
||||||
* @param vDateFuture Fecha de los tickets que se quieren adelantar.
|
|
||||||
* @param vDateToAdvance Fecha a cuando se quiere adelantar.
|
|
||||||
* @param vWarehouseFk Almacén
|
|
||||||
*/
|
|
||||||
|
|
||||||
DECLARE vDateInventory DATE;
|
|
||||||
|
|
||||||
SELECT inventoried INTO vDateInventory FROM vn.config;
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE IF EXISTS tmp.stock;
|
|
||||||
CREATE TEMPORARY TABLE tmp.stock
|
|
||||||
(itemFk INT PRIMARY KEY,
|
|
||||||
amount INT)
|
|
||||||
ENGINE = MEMORY;
|
|
||||||
|
|
||||||
INSERT INTO tmp.stock(itemFk, amount)
|
|
||||||
SELECT itemFk, SUM(quantity) amount FROM
|
|
||||||
(
|
|
||||||
SELECT itemFk, quantity
|
|
||||||
FROM vn.itemTicketOut
|
|
||||||
WHERE shipped >= vDateInventory
|
|
||||||
AND shipped < vDateFuture
|
|
||||||
AND warehouseFk = vWarehouseFk
|
|
||||||
UNION ALL
|
|
||||||
SELECT itemFk, quantity
|
|
||||||
FROM vn.itemEntryIn
|
|
||||||
WHERE landed >= vDateInventory
|
|
||||||
AND landed < vDateFuture
|
|
||||||
AND isVirtualStock = FALSE
|
|
||||||
AND warehouseInFk = vWarehouseFk
|
|
||||||
UNION ALL
|
|
||||||
SELECT itemFk, quantity
|
|
||||||
FROM vn.itemEntryOut
|
|
||||||
WHERE shipped >= vDateInventory
|
|
||||||
AND shipped < vDateFuture
|
|
||||||
AND warehouseOutFk = vWarehouseFk
|
|
||||||
) t
|
|
||||||
GROUP BY itemFk HAVING amount != 0;
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE IF EXISTS tmp.filter;
|
|
||||||
CREATE TEMPORARY TABLE tmp.filter
|
|
||||||
(INDEX (id))
|
|
||||||
SELECT s.ticketFk futureId,
|
|
||||||
t2.ticketFk id,
|
|
||||||
sum((s.quantity <= IFNULL(st.amount,0))) hasStock,
|
|
||||||
count(DISTINCT s.id) saleCount,
|
|
||||||
t2.state,
|
|
||||||
t2.stateCode,
|
|
||||||
st.name futureState,
|
|
||||||
st.code futureStateCode,
|
|
||||||
GROUP_CONCAT(DISTINCT ipt.code ORDER BY ipt.code) futureIpt,
|
|
||||||
t2.ipt,
|
|
||||||
t.workerFk,
|
|
||||||
CAST(sum(litros) AS DECIMAL(10,0)) liters,
|
|
||||||
CAST(count(*) AS DECIMAL(10,0)) `lines`,
|
|
||||||
t2.shipped,
|
|
||||||
t.shipped futureShipped,
|
|
||||||
t2.totalWithVat,
|
|
||||||
t.totalWithVat futureTotalWithVat
|
|
||||||
FROM vn.ticket t
|
|
||||||
JOIN vn.ticketState ts ON ts.ticketFk = t.id
|
|
||||||
JOIN vn.state st ON st.id = ts.stateFk
|
|
||||||
JOIN vn.saleVolume sv ON t.id = sv.ticketFk
|
|
||||||
JOIN (SELECT
|
|
||||||
t2.id ticketFk,
|
|
||||||
t2.addressFk,
|
|
||||||
st.name state,
|
|
||||||
st.code stateCode,
|
|
||||||
GROUP_CONCAT(DISTINCT ipt.code ORDER BY ipt.code) ipt,
|
|
||||||
t2.shipped,
|
|
||||||
t2.totalWithVat
|
|
||||||
FROM vn.ticket t2
|
|
||||||
JOIN vn.sale s ON s.ticketFk = t2.id
|
|
||||||
JOIN vn.item i ON i.id = s.itemFk
|
|
||||||
JOIN vn.ticketState ts ON ts.ticketFk = t2.id
|
|
||||||
JOIN vn.state st ON st.id = ts.stateFk
|
|
||||||
LEFT JOIN vn.itemPackingType ipt ON ipt.code = i.itemPackingTypeFk
|
|
||||||
WHERE t2.shipped BETWEEN vDateToAdvance AND util.dayend(vDateToAdvance)
|
|
||||||
AND t2.warehouseFk = vWarehouseFk
|
|
||||||
GROUP BY t2.id) t2 ON t2.addressFk = t.addressFk
|
|
||||||
JOIN vn.sale s ON s.ticketFk = t.id
|
|
||||||
JOIN vn.item i ON i.id = s.itemFk
|
|
||||||
LEFT JOIN vn.itemPackingType ipt ON ipt.code = i.itemPackingTypeFk
|
|
||||||
LEFT JOIN tmp.stock st ON st.itemFk = s.itemFk
|
|
||||||
WHERE t.shipped BETWEEN vDateFuture AND util.dayend(vDateFuture)
|
|
||||||
AND t.warehouseFk = vWarehouseFk
|
|
||||||
GROUP BY t.id;
|
|
||||||
|
|
||||||
DROP TEMPORARY TABLE tmp.stock;
|
|
||||||
END$$
|
|
||||||
DELIMITER ;
|
|
||||||
|
|
||||||
INSERT INTO `salix`.`ACL` (model, property, accessType, permission, principalType, principalId)
|
|
||||||
VALUES
|
|
||||||
('Ticket', 'getTicketsAdvance', 'READ', 'ALLOW', 'ROLE', 'employee');
|
|
|
@ -1,73 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `vn`.`ticket_canbePostponed`;
|
|
||||||
|
|
||||||
DELIMITER $$
|
|
||||||
$$
|
|
||||||
CREATE DEFINER=`root`@`localhost` PROCEDURE `vn`.`ticket_canbePostponed`(vOriginDated DATE, vFutureDated DATE, vWarehouseFk INT)
|
|
||||||
BEGIN
|
|
||||||
/**
|
|
||||||
* Devuelve un listado de tickets susceptibles de fusionarse con otros tickets en el futuro
|
|
||||||
*
|
|
||||||
* @param vOriginDated Fecha en cuestión
|
|
||||||
* @param vFutureDated Fecha en el futuro a sondear
|
|
||||||
* @param vWarehouseFk Identificador de vn.warehouse
|
|
||||||
*/
|
|
||||||
DROP TEMPORARY TABLE IF EXISTS tmp.filter;
|
|
||||||
CREATE TEMPORARY TABLE tmp.filter
|
|
||||||
(INDEX (id))
|
|
||||||
SELECT sv.ticketFk id,
|
|
||||||
sub2.id futureId,
|
|
||||||
GROUP_CONCAT(DISTINCT i.itemPackingTypeFk ORDER BY i.itemPackingTypeFk) ipt,
|
|
||||||
CAST(sum(litros) AS DECIMAL(10,0)) liters,
|
|
||||||
CAST(count(*) AS DECIMAL(10,0)) `lines`,
|
|
||||||
st.name state,
|
|
||||||
sub2.iptd futureIpt,
|
|
||||||
sub2.state futureState,
|
|
||||||
t.clientFk,
|
|
||||||
t.warehouseFk,
|
|
||||||
ts.alertLevel,
|
|
||||||
t.shipped,
|
|
||||||
sub2.shipped futureShipped,
|
|
||||||
t.workerFk,
|
|
||||||
st.code stateCode,
|
|
||||||
sub2.code futureStateCode
|
|
||||||
FROM vn.saleVolume sv
|
|
||||||
JOIN vn.sale s ON s.id = sv.saleFk
|
|
||||||
JOIN vn.item i ON i.id = s.itemFk
|
|
||||||
JOIN vn.ticket t ON t.id = sv.ticketFk
|
|
||||||
JOIN vn.address a ON a.id = t.addressFk
|
|
||||||
JOIN vn.province p ON p.id = a.provinceFk
|
|
||||||
JOIN vn.country c ON c.id = p.countryFk
|
|
||||||
JOIN vn.ticketState ts ON ts.ticketFk = t.id
|
|
||||||
JOIN vn.state st ON st.id = ts.stateFk
|
|
||||||
JOIN vn.alertLevel al ON al.id = ts.alertLevel
|
|
||||||
LEFT JOIN vn.ticketParking tp ON tp.ticketFk = t.id
|
|
||||||
LEFT JOIN (
|
|
||||||
SELECT *
|
|
||||||
FROM (
|
|
||||||
SELECT
|
|
||||||
t.addressFk,
|
|
||||||
t.id,
|
|
||||||
t.shipped,
|
|
||||||
st.name state,
|
|
||||||
st.code code,
|
|
||||||
GROUP_CONCAT(DISTINCT i.itemPackingTypeFk ORDER BY i.itemPackingTypeFk) iptd
|
|
||||||
FROM vn.ticket t
|
|
||||||
JOIN vn.ticketState ts ON ts.ticketFk = t.id
|
|
||||||
JOIN vn.state st ON st.id = ts.stateFk
|
|
||||||
JOIN vn.sale s ON s.ticketFk = t.id
|
|
||||||
JOIN vn.item i ON i.id = s.itemFk
|
|
||||||
WHERE t.shipped BETWEEN vFutureDated
|
|
||||||
AND util.dayend(vFutureDated)
|
|
||||||
AND t.warehouseFk = vWarehouseFk
|
|
||||||
GROUP BY t.id
|
|
||||||
) sub
|
|
||||||
GROUP BY sub.addressFk
|
|
||||||
) sub2 ON sub2.addressFk = t.addressFk AND t.id != sub2.id
|
|
||||||
WHERE t.shipped BETWEEN vOriginDated AND util.dayend(vOriginDated)
|
|
||||||
AND t.warehouseFk = vWarehouseFk
|
|
||||||
AND al.code = 'FREE'
|
|
||||||
AND tp.ticketFk IS NULL
|
|
||||||
GROUP BY sv.ticketFk
|
|
||||||
HAVING futureId;
|
|
||||||
END$$
|
|
||||||
DELIMITER ;
|
|
|
@ -1,2 +0,0 @@
|
||||||
DROP PROCEDURE IF EXISTS `ticket_split`;
|
|
||||||
DROP PROCEDURE IF EXISTS `ticket_merge`;
|
|
|
@ -1,4 +0,0 @@
|
||||||
INSERT INTO `util`.`notification` (id, name, description) VALUES(3, 'book-entries-imported-incorrectly', 'accounting entries exported incorrectly');
|
|
||||||
INSERT INTO `util`.`notificationAcl` (notificationFk, roleFk) VALUES(3, 5);
|
|
||||||
INSERT IGNORE INTO `util`.`notificationSubscription` (notificationFk, userFk) VALUES(3, 19663);
|
|
||||||
|
|
|
@ -1,7 +0,0 @@
|
||||||
CREATE TABLE `vn`.`stateI18n` (
|
|
||||||
`stateFk` tinyint(3) unsigned NOT NULL,
|
|
||||||
`lang` char(2) NOT NULL,
|
|
||||||
`name` varchar(255) NOT NULL,
|
|
||||||
PRIMARY KEY (`stateFk`, `lang`),
|
|
||||||
CONSTRAINT `stateI18n_state_id` FOREIGN KEY (`stateFk`) REFERENCES `vn`.`state` (`id`)
|
|
||||||
) ENGINE = InnoDB DEFAULT CHARSET = utf8;
|
|
Some files were not shown because too many files have changed in this diff Show More
Loading…
Reference in New Issue