Quantcast
Channel: Blog Virtualizacion
Viewing all 680 articles
Browse latest View live

Eliminar volumen LVM CephFS en Proxmox

$
0
0

Eliminar volumen LVM CephFS en Proxmox

Llevo unos días sin escribir y espero volver con fuerza.

Hoy vamos a enseñaros como eliminar un volumen en Proxmox previamente generado en CephFS. Aunque generarlo es cómodo vía GUI, cuando quieres desmontar lo creado hay que hacerlo vía comando (al menos no he encontrado otra forma).

Os explico la situación, disponemos de volúmenes ya generados previamente. Yo estoy rearmando mis discos duros, y voy a volver a montar el laboratorio. Así que quiero eliminar todo rastro, porque sino no puedo utilizarlos al tener ya formato.

eliminar-volumen-lvm-ceph-proxmox-1

El comando a utilizar es:

ceph-volume lvm zap /dev/sdd --destroy

eliminar-volumen-lvm-ceph-proxmox-2

Para saber los discos a eliminar podemos haberlos listado, por ejemplo con el siguiente comando:

root@pve3:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 931.5G 0 disk
sdb 8:16 0 931.5G 0 disk
└─sdb1 8:17 0 931.5G 0 part
sdc 8:32 0 223.6G 0 disk
sdd 8:48 0 2.7T 0 disk
sde 8:64 0 14.5G 0 disk
sdf 8:80 0 111.8G 0 disk
├─sdf1 8:81 0 1007K 0 part
├─sdf2 8:82 0 512M 0 part
└─sdf3 8:83 0 111.3G 0 part
├─pve-root 253:0 0 27.8G 0 lvm /
├─pve-swap 253:1 0 8G 0 lvm [SWAP] ├─pve-data_tmeta 253:2 0 1G 0 lvm
│ └─pve-data 253:4 0 59.7G 0 lvm
└─pve-data_tdata 253:3 0 59.7G 0 lvm
└─pve-data 253:4 0 59.7G 0 lvm

Una vez eliminado, si vamos a crear un OSD, ya podremos seleccionarlos:

eliminar-volumen-lvm-ceph-proxmox-3

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Eliminar volumen LVM CephFS en Proxmox se publicó primero en Blog VMware y Citrix.


Instalacion Cluster Proxmox con 3 nodos y CephFS

$
0
0

Instalacion Cluster Proxmox con 3 nodos y CephFS

El otro día hicimos un clúster con Proxmox y dos nodos. Hoy ya tengo los discos para el tercer nodo así que vamos a configurar CephFS.

Si necesitáis ayuda para crear el clúster usar la entrada anterior.

Partimos de que tenemos los monitores configurados:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-1

Para los OSD realizaremos una modificación, ya que dispongo de un disco de 3TB y otro de 240GB SSD en cada nodo:

  • Disco: Colocaremos el disco de 3TB
  • DB Disk: Colocaremos el SSD de 240GB. Lo utilizaremos para colocar los metadatos en base de datos sobre un soporte rápido que en este caso es mi SSD.
  • WAL Disk: Colocaríamos un SSD también. Es el registro de escritura anticipada. No tendría sentido colocar un disco menos rápido.
  • REFERENCIA: https://docs.ceph.com/docs/master/rados/configuration/bluestore-config-ref/

Yo lo usaré en Wal Disk:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-12

 

Una vez creados quedarían así:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-13

 

Adicionalmente, damos de alta en el fichero /etc/hosts cada nodo. Lo podéis hacer vía gráfica desde Sistema –> Hosts :

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-0

CephFS necesita que al menos un servidor de metadatos esté configurado y en ejecución para poder funcionar. Así que lanzamos el siguiente comando en al menos uno de los 3 nodos si no habéis hecho la parte del OSD:

root@pve3:~# pveceph mds create
creating MDS directory '/var/lib/ceph/mds/ceph-pve3'
creating keys for 'mds.pve3'
setting ceph as owner for service directory
enabling service 'ceph-mds@pve3.service'
Created symlink /etc/systemd/system/ceph-mds.target.wants/ceph-mds@pve3.service -> /lib/systemd/system/ceph-mds@.service.
starting service 'ceph-mds@pve3.service'

Se generará en la vista Ceph –> CephFS los siguientes valores de Metadata Servers. Uno será el activo y los otros dos pasivos:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-0a

Pulsamos Ceph –> «Create CephFS» que se habilitará en este momento:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-0b

Se puede hacer vía comando:

pveceph fs create --pg_num 128 --add-storage

Aparecerá Task Viewer:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-0c

En Ceph –> Pools, se generan dos nuevos:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-0d

En la vista almacenamiento veremos un nuevo storage:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-0e

Ahora generamos un almacenamiento RBD:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-100

Seleccionamos el Pool y el Contenido:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-10

Y ya tenemos CephFS funcionando para crear máquinas virtuales y contenedores:

instalacion-cluster-proxmox-con-3-nodos-y-cephfs-9

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Instalacion Cluster Proxmox con 3 nodos y CephFS se publicó primero en Blog VMware y Citrix.

Quitar dominio logon Citrix Storefront

$
0
0

Quitar dominio logon Citrix Storefront

Os enseñamos a evitar que los usuarios tengan que introducir el dominio en el dashboard de Citrix al iniciar sesión. Por defecto, cuando montas una nueva plataforma Citrix, los usuarios por defecto deben introducir el dominio al cual está vinculada su cuenta.

Para evitar esa situación, os explicamos la modificación que tenéis que hacer como administradores de dominio:

quitar-dominio-logon-citrix-storefront-1

Nos vamos a la gestión de nuestro Storefront, apartado Store –> Manage Authentication Methods:

quitar-dominio-logon-citrix-storefront-2

En la sección User name and password –> Pulsamos en Settings:

quitar-dominio-logon-citrix-storefront-3

Pulsamos Configure Trusted Domains:

quitar-dominio-logon-citrix-storefront-4

Elegimos la opción Trusted domains only y pulsamos ADD:

quitar-dominio-logon-citrix-storefront-5

Introducimos el nombre de nuestro dominio y pulsamos OK:

quitar-dominio-logon-citrix-storefront-6

De esta manera ya no se pedirá el dominio al usuario:

quitar-dominio-logon-citrix-storefront-7

Ahora si tenemos varios Storefront deberemos replicar los cambios. Desde Server Group –> Propagate changes:

quitar-dominio-logon-citrix-storefront-8

Pulsamos YES:

quitar-dominio-logon-citrix-storefront-9

Y esperamos a que nos de el mensaje:

quitar-dominio-logon-citrix-storefront-10

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Quitar dominio logon Citrix Storefront se publicó primero en Blog VMware y Citrix.

Configurar NLB en Citrix Storefront

$
0
0

Configurar NLB en Citrix Storefront

Muchas veces no tienen la posibilidad de montar un balanceo de tus Storefront a través de Netscaler, así que os vamos a explicar cómo hacerlo con las herramientas que nos da Microsoft y Citrix.

Hace un tiempo es explicamos cómo hacerlo con HAproxy, que es una solución de balanceo bastante interesante.

Partimos de que los nodos que conforman el clúster son:

  • CTXSF01 –> 192.168.200.201 –> Storefront 1
  • CTXSF02 –> 192.168.200.202 –> Storefront 2
  • Entrada DNS que deberemos crear para NLB –> citrix.negu.local –> 192.168.200.209

Así que instalamos en nuestros Storefront la característica de Equilibrio de carga de red:

configurar-nlb-en-citrix-storefront-1-0

Agregamos características:

configurar-nlb-en-citrix-storefront-2

Pulsamos Instalar:

configurar-nlb-en-citrix-storefront-3

Una vez instalado en ambos nodos, vamos a uno de ellos y abrimos el administrador de equilibrio de carga de red:

configurar-nlb-en-citrix-storefront-4

Empezamos con la configuración:

configurar-nlb-en-citrix-storefront-6

Introducimos la IP del CTXSF01:

configurar-nlb-en-citrix-storefront-6

Lo dejamos el identificador a 1 y pulsamos Siguiente:

configurar-nlb-en-citrix-storefront-7

Pulsamos Agregar:

configurar-nlb-en-citrix-storefront-8

Introducimos la IP del NLB:

configurar-nlb-en-citrix-storefront-9

Le damos el nombre del registro DNS, citrix.negu.local y en modo Multidifusión:

configurar-nlb-en-citrix-storefront-10

En los puertos modificaremos lo de por defecto:

configurar-nlb-en-citrix-storefront-11

Ponemos 443 o 80, según utilicemos HTTPS o HTTP. Yo luego lo modificaré y añado ambos mientras termino de configurar la plataforma:

configurar-nlb-en-citrix-storefront-12 configurar-nlb-en-citrix-storefront-13

Una vez tenemos un host, añadimos CTXSF02 desde la herramienta de configuración del NLB:

configurar-nlb-en-citrix-storefront-14

Introducimos la IP de CTXSF02:

configurar-nlb-en-citrix-storefront-15

Prioridad 2:

configurar-nlb-en-citrix-storefront-16

Los mismos puertos:

configurar-nlb-en-citrix-storefront-17

Esperamos a que se una. En este momento se está añadiendo la IP del NLB en la configuración del servidor:

configurar-nlb-en-citrix-storefront-18

Con todo verde, seguimos:

configurar-nlb-en-citrix-storefront-19

Ahora tendremos que ir al Citrix Studio y como Storefront añadiremos el NLB no los Storefront que tengamos:

configurar-nlb-en-citrix-storefront-1

 

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Configurar NLB en Citrix Storefront se publicó primero en Blog VMware y Citrix.

Citrix Full Screen Desktops

$
0
0

Citrix Full Screen Desktops

¿Cuántas veces os ha pasado que abrís una VDA en XENDESKTOP y os encontráis con que no se abre en pantalla completa? Sino que se refleja de la siguiente forma:

citrix-full-screen-desktops-1

Para evitar este problema debemos modificar unos ficheros en los Storefronts, en concreto, default.ica (si sabéis algo de Citrix, algo os sonará). Lo podéis encontrar  en la siguiente ruta en la versión 7.15 LTSR:

C:\inetpub\wwwroot\Citrix\Store\App_Data

citrix-full-screen-desktops-2

Ahora en la sección Application agregamos la siguiente línea:

DesktopViewer-ForceFullScreenStartup=true

citrix-full-screen-desktops-3

Repetir esta modificación en todos los Storefronts.

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Citrix Full Screen Desktops se publicó primero en Blog VMware y Citrix.

Citrix forzar autoarranque VDAs

$
0
0

Citrix forzar autoarranque VDAs

Hoy voy a explicaros como hacemos para que los escritorios que presentamos en Citrix estén arrancados cuando alguien los pide, de tal forma que estén disponibles lo antes posible y los tiempos de logon sean lo más cortos posible.

En mi caso, estoy haciendo un enlace a VMware vSphere, y mi pool de máquinas o escritorios, residen en VMware. Existen unas horas donde me interesa que todas las máquinas virtuales estén arrancadas, para que no tarden cuando alguien las pide, en otro momento, por ejemplo el fin de semana, pueden apagarse.

Así que os lo explico. Vamos a Citrix Studio -> Delivery Group -> Edit Delivery Group:

citrix-forzar-autoarranque-vdas-1

Apartado Power Management y pulsamos Edit. En el combo podéis observar que podéis elegir los días entre semana o fin de semana:

citrix-forzar-autoarranque-vdas-2

Y modificáis las máquinas que queréis en cada hora encendidas o disponibles. El número es el mismo que la cantidad de máquinas configuradas en vuestro Machine Catalog:

citrix-forzar-autoarranque-vdas-3

Con esto, las máquinas se irán arrancando.

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Citrix forzar autoarranque VDAs se publicó primero en Blog VMware y Citrix.

Saber tamaño carpeta perfiles Citrix vía Microsoft Powershell

$
0
0

Saber tamaño carpeta perfiles Citrix vía Microsoft Powershell

Cuando estás en un proyecto Citrix, muchas veces tienes que evaluar el tamaño de los perfiles a los que te vas a enfrentar para buscar la mejor solución para ellos.

Hoy vamos a explicaros como extraer de una carpeta el tamaño de todos los perfiles y el número de los objetos que residen en esas carpetas. Para ello utilizaremos Powershell.

Powershell para extraer tamaño Perfiles Citrix

Get-ChildItem -path "D:\PerfilesCitrix\*" | Foreach {
$Files = Get-ChildItem $_.FullName -Recurse
$Size = '{0:N2}' -f (( $Files | Measure-Object -Property Length -Sum).Sum /1MB)
[PSCustomObject]@{Profile = $_.FullName ; TotalObjects = "$($Files.Count)" ; SizeMB = $Size}
} | Export-CSV "C:\temp\perfiles-size.csv" -NoTypeInformation

saber-tamano-carpeta-perfiles-citrix-via-microsoft-powershell-1

REFERENCIA: https://www.pantallazos.es/2018/07/windows-powershell-listar-tamano-carpetas-csv.html

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

 

La entrada Saber tamaño carpeta perfiles Citrix vía Microsoft Powershell se publicó primero en Blog VMware y Citrix.

Actualizar iDRAC Servidor Dell

$
0
0

Actualizar iDRAC Servidor Dell

Os voy a explicar cómo actualizar un servidor PowerEdge R640 desde la iDRAC.

Lo primero que deberemos hacer es descargar el firmware necesario, que será un fichero EXE:

https://www.dell.com/support/home/es/es/esbsdt1/product-support/product/poweredge-r640/drivers

actualizar-idrac-servidor-dell-1

Como reside en un clúster lo pausamos:

actualizar-idrac-servidor-dell-2

Iremos a Mantenimiento –> Actualización del sistema –> Actualización manual:

actualizar-idrac-servidor-dell-3

Cargamos el fichero .EXE:

actualizar-idrac-servidor-dell-4

Tardará unos segundos:

actualizar-idrac-servidor-dell-6

Marcamos el driver y pulsamos Instalar:

actualizar-idrac-servidor-dell-6

Iremos a la cola de trabajos:

actualizar-idrac-servidor-dell-7

Y veremos el proceso:

actualizar-idrac-servidor-dell-9

Normalmente se reinicia el sistema. Podéis volver a revisar el sistema y la actualización, desde información del sistema:

actualizar-idrac-servidor-dell-9

Ahora para volver a meterlo en el clúster, iremos a la gestión de Failover Cluster –> Nodes –> Resume –> Fail Roles Back:

actualizar-idrac-servidor-dell-11

Podemos verificarlo:

actualizar-idrac-servidor-dell-11

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Actualizar iDRAC Servidor Dell se publicó primero en Blog VMware y Citrix.


Powershell: Saber versión de Java vía comando

$
0
0

Powershell: Saber versión de Java vía comando

Os voy a enseñar como podéis saber qué versión de Java tenéis en el sistema operativo vía comando de Powershell.

Esto viene muy bien cuando tienes que extraerlo de varios equipos, por ejemplo en una consultoría y quieres hacerlo vía remota.

Os dejo varias formas de hacerlo:

PS > Get-Command java | Select-Object Version
Version
-------
8.0.1710.11

Si quieres más detalle:

PS > Get-Command java | Select-Object -ExpandProperty Version
Major Minor Build Revision
----- ----- ----- --------
8 0 1710 11

Y otro comando para llegar al mismo sitio:

PS > (Get-Command java | Select-Object -ExpandProperty Version).tostring()
8.0.1710.11

Espero os parezca interesante.

powershell-saber-version-de-java-via-comando-1

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Powershell: Saber versión de Java vía comando se publicó primero en Blog VMware y Citrix.

Powershell: Monitorizar CPU vía comando en Windows

$
0
0

Powershell: Monitorizar CPU vía comando en Windows

Os explico como podéis extraer el uso de CPU de vuestros servidores Windows vía comando de Powershell:

Get-Counter '\Processor(*)\% Processor Time' -Continuous -SampleInterval 5

Otra forma de hacerlo:

Get-Counter -ComputerName "OrdenadorRemoto" '\Processor(*)\% Processor Time' -Continuous -SampleInterval 5

powershell-monitorizar-cpu-via-comando-en-windows-1

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Powershell: Monitorizar CPU vía comando en Windows se publicó primero en Blog VMware y Citrix.

Powershell: Comprobar procesos vía comando en Windows

$
0
0

Powershell: Comprobar procesos vía comando en Windows

Os explico como podéis extraer los procesos de vuestros servidores Windows vía comando de Powershell:

(Get-Counter '\Process(*)\% Processor Time').CounterSamples | Where-Object {$_.CookedValue -gt 5}

Otra forma de hacerlo:

$CpuCores = (Get-WMIObject Win32_ComputerSystem).NumberOfLogicalProcessors
(Get-Counter "\Process(*)\% Processor Time").CounterSamples | Select InstanceName, @{Name="CPU %";Expression={[Decimal]::Round(($_.CookedValue / $CpuCores), 2)}} | sort *CPU* -Descending | select -First 10"

Otro más:

gwmi Win32_PerfFormattedData_PerfProc_Process -filter "Name <> '_Total' and Name <> 'Idle'" -Computer $servername | where { $_.PercentProcessorTime -gt 0 } | select Name, PercentProcessorTime

powershell-comprobar-procesos-via-comando-en-windows-1

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Powershell: Comprobar procesos vía comando en Windows se publicó primero en Blog VMware y Citrix.

Aumentar disco máquina virtual Proxmox

$
0
0

Aumentar disco máquina virtual Proxmox

Hoy voy a explicaros cómo realizar un aumento de disco duro en una máquina virtual que reside en una infraestructura Proxmox.

Si estáis habituados a otros entornos como VMware, Hyper-V,…no os sorprenderá demasiado. Pero bueno, el valor es que realmente la plataforma es gratuita y en otra época hacer algo, ahora tan simple, en caliente, en un producto gratuito era poco imaginable.

Así que vamos a ello…nos conectamos a la consola de gestión y vamos a la máquina virtual a ampliar. Vamos a Hardware y al disco que queremos ampliar:

aumentar-disco-maquina-virtual-proxmox-1

Ponemos el tamaño a aumentar (no es el tamaño del disco):

aumentar-disco-maquina-virtual-proxmox-2

Lo veremos reflejado en el Hardware:

aumentar-disco-maquina-virtual-proxmox-3

Ahora entramos en la máquina virtual y abrimos el administrador de discos:

aumentar-disco-maquina-virtual-proxmox-4

Iremos a Action:

aumentar-disco-maquina-virtual-proxmox-5

Rescan Disks:

aumentar-disco-maquina-virtual-proxmox-6

Veremos el espacio:

aumentar-disco-maquina-virtual-proxmox-7

Ahora botón derecho Extend Volume:

aumentar-disco-maquina-virtual-proxmox-8

Pulsamos Siguiente:

aumentar-disco-maquina-virtual-proxmox-9

Siguiente:

aumentar-disco-maquina-virtual-proxmox-10

Y Finish:

aumentar-disco-maquina-virtual-proxmox-11

Ya podremos disfrutar del espacio en disco:

aumentar-disco-maquina-virtual-proxmox-12

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Aumentar disco máquina virtual Proxmox se publicó primero en Blog VMware y Citrix.

Migrar perfiles UPD (User Profile Disks) a FSLogix

$
0
0

Migrar perfiles UPD (User Profile Disks) a FSLogix

Hoy vamos a enseñaros cómo podemos migrar perfiles UPD de una granja RDS a FSLogix. El otro día os expliqué cómo crear una granja RDS desde cero, en la que montamos perfiles UPD (User Profile Disks).

Si conocéis algo de las tecnologías de perfilado que se usan en Citrix, VMware, Microsoft,…UPD genera como FSLogix discos VHDX de cada perfil de usuario. En alguna entrada ya os hablé de las ventajas de FSLogix, ahora voy a intentar compararlos y explicar qué mejora con respecto a UPD.

¿Diferencia entre UPD y FSLogix?

Microsoft introdujo UPD en Windows Server 2012, se genera un disco VHD con todo el perfil del usuario. Se guarda en una ubicación de red, y el usuario puede moverse con su sesión sin problemas.

En la práctica parece lo mismo que FSLogix, la diferencia fundamental es que tiene ciertas limitaciones, que FSLogix no tiene. ¿Cuales son esas diferencias?

En la tecnología original de Microsoft (FSlogix también es de Microsoft) se utilizan enlaces simbólicos, que os sonarán de Linux. Esto es un problema para aplicativos como Teams entre otros, que necesitan estar instalados localmente.

Tampoco trabaja con multisesión y puede generar perfiles inconsistentes o con errores. No ayuda tampoco con Windows Search o Outlook Search.

FSLogix mejora todo esto, y además se añade el soporte a Office 365, que es la tendencia actual de toda media o gran empresa.

Migración perfiles UPD a FSLogix

Como ya tendréis claro. A parte de un script que nos permita hacer esto, deberemos planificar bien los pasos. Quiero reutilizar los servidores RDS Hosts que ahora mismo tengo en mi LAB dando servicio para no tener que reinstalar la plataforma:

  • No debe haber usuarios conectados, ya que necesitamos que el VHDX de UPD no esté en uso.
  • Instalación agentes FSlogix en máquinas virtuales implicadas. RD Hosts dentro de la granja RDS

Descarga FSLOGIX:

https://docs.microsoft.com/en-us/fslogix/install-ht

Se instala en el siguiente orden:
1.- FSLogixAppsSetup
2.- FSLogixAppsRuleEditorSetup
3.- FSLogixAppsJavaRuleEditorSetup

La desinstalación sería al contrario. Los instalables no tienen grandes opciones, pulsamos Install y suficiente para cada uno. Sin reinicios de sistema operativo:

migrar-perfiles-upd-user-profile-disks-a-fslogix-1

  • Cargar los ADMX en directorio activo

Los fichero admx y adml se encuentran en el fichero ZIP que se descarga con los agentes:

migrar-perfiles-upd-user-profile-disks-a-fslogix-2

Hay que copiarlos a la siguiente ruta:

\\negu.local\SYSVOL\negu.local\Policies\PolicyDefinitions

Si no existe la carpeta PolicyDefinitions hay que crearla. Así como la subcarpeta en-US. Dejaremos el ADMX en la raíz y el ADML en la subcarpeta:

migrar-perfiles-upd-user-profile-disks-a-fslogix-3

  • Crear una GPO para Fslogix:

migrar-perfiles-upd-user-profile-disks-a-fslogix-4

Veremos las settings de Fslogix si se ha cargado bien la plantilla:

migrar-perfiles-upd-user-profile-disks-a-fslogix-5

Pasaremos los siguientes parámetros, que se aplican sobre Equipos, y no sobre Usuarios, así que deberemos planificar la migración con cuidado:

migrar-perfiles-upd-user-profile-disks-a-fslogix-6

migrar-perfiles-upd-user-profile-disks-a-fslogix-7

migrar-perfiles-upd-user-profile-disks-a-fslogix-8

  • Logs GPO, deshabilitar al terminar la migración y ver la estabilidad para acelerar logons y close sessions

migrar-perfiles-upd-user-profile-disks-a-fslogix-9

  • Crear un recurso paralelo para los archivos

migrar-perfiles-upd-user-profile-disks-a-fslogix-10

Crearemos un par de carpetas, una para el fichero de exclusiones y otra para los logs:

migrar-perfiles-upd-user-profile-disks-a-fslogix-11

Permisos SHARE:

migrar-perfiles-upd-user-profile-disks-a-fslogix-12

Permisos NTFS:

migrar-perfiles-upd-user-profile-disks-a-fslogix-13

  • Las colecciones RDS tienen configurados los perfiles de UPD:

Si tienen la opción «Store all user setting and data on the user profile disk»:

migrar-perfiles-upd-user-profile-disks-a-fslogix-14

Veremos localmente los perfiles como un enlace simbólico:

migrar-perfiles-upd-user-profile-disks-a-fslogix-15

En cambio si están configurados como «Store only the following on the user profile disk»

migrar-perfiles-upd-user-profile-disks-a-fslogix-16

El icono cambia:

migrar-perfiles-upd-user-profile-disks-a-fslogix-17

  • Ahora pasaríamos el script de migración como administrador:

FUENTE SCRIPT: https://www.beckmann.ch/blog/2019/05/17/migrate-user-profile-disk-to-fslogix-profile-disk/?lang=en

Le he hecho pequeños retoques, como saber el SID de todos los VHDX originales para luego poder borrarlos si quiero:

migrar-perfiles-upd-user-profile-disks-a-fslogix-18

#Definimos las rutas de origen y destino
$UPDPath = '\\negufiles01\perfiles'
$NewProfilePath = '\\negufiles01\fslogix'
$DiskProfileFolder = 'Profile'

#Define la ruta para la lista de usuarios
$UserListe = 'C:\temp\UserMigrate.txt'
$Users = Get-Content $UserListe

foreach ($U in $Users){
# Valor del usuario de SAM
$SAM = $U
# Leemos el SID del usuario segun su SAM
$SID = (New-Object System.Security.Principal.NTAccount($SAM)).translate([System.Security.Principal.SecurityIdentifier]).Value
# Definimos la ruta al VHDX original en UPD
$UPD = Join-Path -Path $UPDPath -ChildPath ('UVHD-' + $SID + '.vhdx')
Write-Output "Start with User: $SAM"
If (Test-Path $UPD){
# Si UPD existe definimos la ruta
#$FSLPath = Join-Path -Path $NewProfilePath -ChildPath ($SAM + '_' + $SID)
$FSLPath = Join-Path -Path $NewProfilePath -ChildPath ($SAM)
# Creamos la ruta de destino
If (!(Test-Path $FSLPath)){
Write-Output "Create Folder: $FSLPath"
#New-Item -Path $NewProfilePath -Name ($SAM + '_' + $SID) -ItemType Directory | Out-Null
New-Item -Path $NewProfilePath -Name $SAM -ItemType Directory | Out-Null
# Log con nombre de usuario + SID
Add-Content $NewProfilePath\Logs\VHDX_Migrados.log "UVHD-$SID.vhdx"
}
# Damos permisos a la carpeta de destino
& icacls $FSLPath /setowner "$env:userdomain\$sam" /T /C | Out-Null
& icacls $FSLPath /grant $env:userdomain\$sam:(OI)(CI)F /T | Out-Null

# Definimos la ruta de destino
# $FSLDisk = Join-Path -Path $FSLPath -ChildPath ('Profile_' + $SAM + '.vhdx')
$FSLDisk = Join-Path -Path $FSLPath -ChildPath ($SAM + '.vhdx')
# Copiamos el perfile al nuevo destino
Write-Output "Copy UPD: $UPD"
Copy-Item -Path $UPD -Destination $FSLDisk | Out-Null
# Montamos la imagen del disco VHDX
Mount-DiskImage -ImagePath $FSLDisk
# Definimos la letra para el mapeo
$DriveLetter = (Get-DiskImage -ImagePath $FSLDisk | Get-Disk | Get-Partition).DriveLetter
$MountPoint = ($DriveLetter + ':\')

# Definimos la ruta del disco del perfil
$DiskProfilePath = Join-Path -Path $MountPoint -ChildPath $DiskProfileFolder
# Creamos la ruta para el disco del perfil
If (!(Test-Path $DiskProfilePath)){
Write-Output "Create Folder: $DiskProfilePath"
New-Item $DiskProfilePath -ItemType Directory| Out-Null
}
# Definimos los ficheros y carpetas que NO vamos a copiar
$Excludes = @("Profile","Uvhd-Binding","
$RECYCLE.BIN","System Volume Information")
# Copiamos el contenido del perfil a la nueva carpeta
$Content = Get-ChildItem $MountPoint -Force
ForEach ($C in $Content){

If ($Excludes -notcontains $C.Name){
Write-Output ('Move: ' + $C.FullName)

Try {
Move-Item $C.FullName -Destination $DiskProfilePath -Force -ErrorAction Stop
} Catch {
Write-Warning "Error: $_"
}
}

}

# Definimos fichero de registro
$regtext = "Windows Registry Editor Version 5.00
[HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\ProfileList\$SID] "ProfileImagePath"="C:\\Users\\$SAM"
"Flags"=dword:00000000
"State"=dword:00000000
"ProfileLoadTimeLow"=dword:00000000
"ProfileLoadTimeHigh"=dword:00000000
"RefCount"=dword:00000000
"RunLogonScriptSync"=dword:00000001
"

# Creamos la carpeta y la clave de registro
Write-Output "Create Reg: $DiskProfilePath\AppData\Local\FSLogix\ProfileData.reg"
if (!(Test-Path "$DiskProfilePath\AppData\Local\FSLogix")) {
New-Item -Path "$DiskProfilePath\AppData\Local\FSLogix" -ItemType directory | Out-Null
}
if (!(Test-Path "$DiskProfilePath\AppData\Local\FSLogix\ProfileData.reg")) {
$regtext | Out-File "$DiskProfilePath\AppData\Local\FSLogix\ProfileData.reg" -Encoding ascii
}

# Borramos OST, sometimes there is an issue, so you can prevent.
remove-item $DiskProfilePath\AppData\Local\Microsoft\Outlook\*.ost

# Damos un tiempo y desmontamos la imagen del disco
Start-Sleep -Seconds 30
Dismount-DiskImage -ImagePath $FSLDisk
# Borrado disco original
#Dismount-DiskImage -ImagePath $UPD
#del $UPD

}
Write-Output "--------------------------------------------------------------------"
}

  • Deshabilitamos UPD en las colecciones:

migrar-perfiles-upd-user-profile-disks-a-fslogix-19

  • Fichero exclusiones redirections.xml:
<?xml version="1.0" encoding="UTF-8"?>
<FrxProfileFolderRedirection ExcludeCommonFolders="0">
   <Excludes>
	<Exclude>AppData\Temp</Exclude>
	<Exclude>AppData\Local\Adobe\Acrobat\DC\Cache\ToolsSearchCacheRdr</Exclude> 
	<Exclude>AppData\Local\Adobe\Acrobat\DC\Cache</Exclude> 
	<Exclude>AppData\Local\Citrix\SelfService\img</Exclude> 
	<Exclude>AppData\Local\Comms</Exclude>
	<Exclude>AppData\Local\WebEx\wbxcache</Exclude>
	<Exclude>AppData\Local\Microsoft\Office\15.0\Lync\Tracing</Exclude>
	<Exclude>AppData\Local\Microsoft\OneDrive</Exclude>
	<Exclude>AppData\Local\Microsoft\Terminal Server Client</Exclude>
	<Exclude>AppData\Local\Microsoft\Messenger</Exclude>
	<Exclude>AppData\Local\Microsoft\Office\15.0\OfficeFileCache</Exclude>
	<Exclude>AppData\Local\Microsoft\OneNote</Exclude>
	<Exclude>AppData\Local\Microsoft\Windows\Cookies</Exclude> 
	<Exclude>AppData\Local\Mozilla\Firefox\Profiles\mozilla.default\cache2</Exclude>
	<Exclude>AppData\Roaming\FSLogix</Exclude>
	<Exclude>AppData\Roaming\Sun\Java\Deployment\cache</Exclude>
	<Exclude>AppData\Roaming\Sun\Java\Deployment\log</Exclude>
	<Exclude>AppData\Roaming\Sun\Java\Deployment\tmp</Exclude>
	<Exclude>AppData\Roaming\Citrix\PNAgent\AppCache</Exclude>
	<Exclude>AppData\Roaming\Citrix\PNAgent\Icon Cache</Exclude>
	<Exclude>AppData\Roaming\Citrix\PNAgent\ResourceCache</Exclude>
	<Exclude>AppData\Roaming\Citrix\SelfService\Icons</Exclude>
	<Exclude>AppData\Roaming\ICAClient\Cache</Exclude>
	<Exclude>AppData\Roaming\Macromedia\Flash Player\#SharedObjects</Exclude>
	<Exclude>AppData\Roaming\Macromedia\Flash Player\macromedia.com\support\flashplayer\sys</Exclude> 
	<Exclude>AppData\Roaming\Microsoft\Document Building Blocks</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Crash Reports</Exclude>
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\Crashes</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\healthreport</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\indexedDB</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\minidumps</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\saved-telemetry-pings</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\sessionstore-backups</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\storage</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\weave</Exclude> 
	<Exclude>AppData\Roaming\Mozilla\Firefox\Profiles\mozilla.default\webapps</Exclude>
	<Exclude>AppData\Roaming\Microsoft\Windows\Cookies</Exclude>
	<Exclude>AppData\Local</Exclude>
	<Exclude>AppData\LocalLow</Exclude>
   </Excludes>
   <Includes>
   </Includes>			
</FrxProfileFolderRedirection>
  • Forzamos la GPO a los servidores implicados
  • Y realizamos las pruebas funcionales. Abrimos sesión:

migrar-perfiles-upd-user-profile-disks-a-fslogix-20

Creamos ficheros en el perfil:

migrar-perfiles-upd-user-profile-disks-a-fslogix-21

Cerramos sesión. Comprobamos que genera el VHDX, que se guarda:

migrar-perfiles-upd-user-profile-disks-a-fslogix-22

Podemos mapear el disco para verificar su contenido:

migrar-perfiles-upd-user-profile-disks-a-fslogix-23

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Migrar perfiles UPD (User Profile Disks) a FSLogix se publicó primero en Blog VMware y Citrix.

Citrix Sizing Tool

$
0
0

Citrix Sizing Tool

Hoy os voy a enseñar una herramienta muy útil para dimensionar una plataforma cuando estáis haciendo un diseño o consultoría de Citrix.

Os dejo unos enlaces que os pueden venir muy bien:

https://docs.citrix.com/es-es/xenapp-and-xendesktop/7-15-ltsr/system-requirements.html
https://docs.citrix.com/en-us/advanced-concepts/implementation-guides/database-sizing-guidance-for-xendesktop-7-6.html
https://support.citrix.com/article/CTX209080

Descargáis la herramienta y la instaláis en una máquina Windows:

citrix-sizing-tool-1

El proceso de instalación es muy simple:

citrix-sizing-tool-2

Tendréis que ajustar el número de usuarios, las sesiones por usuario, aplicaciones,…

citrix-sizing-tool-3

Una vez que lo ajustáis a vuestro diseño, os realiza el cálculo:

citrix-sizing-tool-4

Y podéis extraer un cálculo más aproximado que haciéndolo a ojo:

citrix-sizing-tool-5

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Citrix Sizing Tool se publicó primero en Blog VMware y Citrix.

Proxmox: Mover disco duro de máquina virtual a otro almacenamiento

$
0
0

Proxmox: Mover disco duro de máquina virtual a otro almacenamiento

Os explicamos como cambiar de storage un disco de una máquina virtual en Proxmox. La idea es moverlo de CephFS a iSCSI, de forma que pueda utilizar el espacio en disco que tengo en mi NAS.

En VMware tendría un vMotion o Storage vMotion, en Proxmox (os recuerdo que salvo el soporte, es gratuito), lo haremos de una forma parecida.

Entramos en la gestión de proxmox y nos colocamos en la máquina virtual que queremos mover. Vamos al disco de la misma y pulsamos MOVER DISCO:

proxmox-mover-disco-duro-de-maquina-virtual-a-otro-almacenamiento-1

Elegimos el destino:

proxmox-mover-disco-duro-de-maquina-virtual-a-otro-almacenamiento-2

Pulsamos  Mover disco:

proxmox-mover-disco-duro-de-maquina-virtual-a-otro-almacenamiento-3

Empieza el proceso:

proxmox-mover-disco-duro-de-maquina-virtual-a-otro-almacenamiento-4a

 

 

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Proxmox: Mover disco duro de máquina virtual a otro almacenamiento se publicó primero en Blog VMware y Citrix.


Proxmox: Crear snapshot máquina virtual

$
0
0

Proxmox: Crear snapshot máquina virtual

Os vamos a explicar como crear un snapshot sobre una máquina virtual en Proxmox.

Puede parecer sencillo, que lo es, pero deberíais tener en cuenta que os podéis encontrar con algún problema como el de la imagen, donde el botón para hacer un snapshot esté deshabilitado y no entendáis por qué:

proxmox-crear-snapshot-maquina-virtual-1

Lo voy a explicar rápidamente, no todos los sistemas de ficheros son compatibles actualmente con la funcionalidad de snapshot. Los podéis revisar desde el siguiente enlace, aunque os dejo la tabla:

proxmox-crear-snapshot-maquina-virtual-2

Vamos a crear un snapshot, nos colocamos en la máquina virtual, y vamos a las sección Snapshot:

proxmox-crear-snapshot-maquina-virtual-3

Le damos un nombre y una descripción. Pulsamos «Hacer un Snapshot»:

proxmox-crear-snapshot-maquina-virtual-4

Ahora podremos Revertir el snapshot si es necesario:

proxmox-crear-snapshot-maquina-virtual-5

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Proxmox: Crear snapshot máquina virtual se publicó primero en Blog VMware y Citrix.

Instalar VMware ESXi en Proxmox

$
0
0

Instalar VMware ESXi en Proxmox

Hoy voy a explicaros cómo podemos instalar un VMware ESXi en modo Nested en una infraestructura Proxmox.

Vamos a lanzar el Hypervisor de VMware sobre un KVM, en este caso Proxmox.

Lo primero que haremos es cargar la ISO de VMware ESXi, en mi caso la última disponible, 6.7 U3. Así que abrimos la consola, vamos a la vista de los storage, y desde Contenido, pulsamos Cargar:

instalar-vmware-esxi-en-proxmox-1

Seleccionamos el fichero y pulsamos Cargar:

instalar-vmware-esxi-en-proxmox-2

La veremos ya disponible:

instalar-vmware-esxi-en-proxmox-3

Para evitar el error de que la CPU no soporta el modo Nested:

instalar-vmware-esxi-en-proxmox-14

Deberemos crear el siguiente fichero y agregar el siguiente contenido:

vi /etc/modprobe.d/kvm-intel.conf

options kvm ignore_msrs=y
options kvm-intel nested=Y ept=Y

Ahora comprobamos:

modprobe -r kvm-intel kvm; modprobe kvm kvm-intel

Es posible que os genere un error:

instalar-vmware-esxi-en-proxmox-15

Simplemente tendréis que reiniciar el host.

Una vez solucionado el problema de la CPU, generamos una máquina virtual nueva:

instalar-vmware-esxi-en-proxmox-4

Le damos un nombre y que arranque al inicio:

instalar-vmware-esxi-en-proxmox-8

Elegimos la ISO de nuestro ESXi, previamente cargada. Y como tipo ponemos OTHER:

instalar-vmware-esxi-en-proxmox-6

Pulsamos Siguiente:

instalar-vmware-esxi-en-proxmox-8

Con 16GB nos vale:

instalar-vmware-esxi-en-proxmox-8

Como tipo de CPU colocamos HOST:

instalar-vmware-esxi-en-proxmox-9

Le damos memoria suficiente para albergar máquinas virtuales:

instalar-vmware-esxi-en-proxmox-10

Como modelo de red usaremos VMware vmxnet3:

instalar-vmware-esxi-en-proxmox-11

Confirmamos:

instalar-vmware-esxi-en-proxmox-12

Comienza a arrancar la instalación del ESXi:

instalar-vmware-esxi-en-proxmox-13

El proceso es normal:

instalar-vmware-esxi-en-proxmox-16

Una vez instalado, yo lo he colocado por DHCP y ha cogido IP. Ya podremos acceder vía web:

instalar-vmware-esxi-en-proxmox-19

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Instalar VMware ESXi en Proxmox se publicó primero en Blog VMware y Citrix.

Proxmox: Possible data damage: 1 pg recovery_unfound

$
0
0

Proxmox: Possible data damage: 1 pg recovery_unfound

Hoy voy a explicaros como solucionar un error en vuestro storage CephFS en vuestra infraestructura Proxmox.

¿Qué es en Ceph un PG (Placement Groups)?

Antes de explicar el error, lo que voy a hacer es intentar explicar qué es un PG (Placement Groups) o Grupo de Ubicación. A grandes rasgos, son parte fundamental de un clúster Ceph, ya que permiten su escabilidad y son fundamentales para su rendimiento. Al colocar datos en el clúster Ceph, los objetos se asignan a un PG y a su vez estos se asignan a OSD. Esto reduce la cantidad de metadatos por objeto.

Dependiendo del nivel de replicación de un clúster Ceph, cada PG se replica y distribuye en más de un OSD del clúster. Se podría decir que un PG es como un contenedor lógico que contiene varios objetos, de modo que este contenedor lógico se asigna a múltiples OSD.

Sin PG, sería difícil administrar y rastrear decenas de millones de objetos que se replican y se extienden por cientos de OSD.

proxmox-possible-data-damage-1-pg-recovery_unfound-0-1

Una vez explicado por encima vamos al error.

El error es «Possible data damage: 1 pg recovery_unfound». Yo personalmente lo he visto vía gráfica, así que os explico como analizar el problema y cual es la solución que yo he encontrado:

proxmox-possible-data-damage-1-pg-recovery_unfound-1

Para revisarlo vía comando he utilizado por ssh:

root@pve1:~# ceph health detail

HEALTH_ERR 1/19239 objects unfound (0.005%); Possible data damage: 1 pg recovery_unfound; Degraded data redundancy: 3/57717 objects degraded (0.005%), 1 pg degraded; 1 pgs not deep-scrubbed in time; 1 pgs not scrubbed in time
OBJECT_UNFOUND 1/19239 objects unfound (0.005%)
    pg 1.10 has 1 unfound objects
PG_DAMAGED Possible data damage: 1 pg recovery_unfound
    pg 1.10 is active+recovery_unfound+degraded, acting [1,2,0], 1 unfound
PG_DEGRADED Degraded data redundancy: 3/57717 objects degraded (0.005%), 1 pg degraded
    pg 1.10 is active+recovery_unfound+degraded, acting [1,2,0], 1 unfound
PG_NOT_DEEP_SCRUBBED 1 pgs not deep-scrubbed in time
    pg 1.10 not deep-scrubbed since 2019-10-01 21:52:22.943355
PG_NOT_SCRUBBED 1 pgs not scrubbed in time
    pg 1.10 not scrubbed since 2019-10-06 16:17:28.577600

Resumo mi clúster Ceph:

root@pve1:/var/lib/ceph/osd/ceph-0# ceph df
RAW STORAGE:
    CLASS     SIZE        AVAIL       USED        RAW USED     %RAW USED
    hdd       8.2 TiB     8.0 TiB     214 GiB      217 GiB          2.59
    TOTAL     8.2 TiB     8.0 TiB     214 GiB      217 GiB          2.59 

POOLS:
    POOL                ID     STORED      OBJECTS     USED        %USED     MAX AVAIL
    cephfs_data          1      71 GiB      19.22k     214 GiB      2.69       2.5 TiB
    cephfs_metadata      2     461 KiB          22     2.8 MiB         0       2.5 TiB

Comprobamos que el grupo no está en un estado «obsoleto» o stale

root@pve1:/var/lib/ceph/osd/ceph-0# ceph pg ls

proxmox-possible-data-damage-1-pg-recovery_unfound-3

Podéis revisar el estado con este comando:

root@pve1:/var/log/ceph# ceph pg dump | grep ^1.10
dumped all
1.10         69                  1        3         0       1 278548480           0          0 3073     3073 active+recovery_unfound 2019-11-03 12:09:10.281595  498'70173  502:92861 [1,2,0]          1 [1,2,0]              1    64'6779 2019-10-06 16:17:28.577600         64'6779 2019-10-01 21:52:22.943355

He descubierto que mi problema está en máquinas virtuales que no he generado o movido bien entre cambios de versión, y han dejado rastro en el storage.

root@pve1:~# ceph pg 1.10 mark_unfound_lost delete
pg has 1 objects unfound and apparently lost marking

Y después de este comando, nos encontraremos que la infraestructura está HEALTH_OK:

proxmox-possible-data-damage-1-pg-recovery_unfound-2

Revisado vía comando:

root@pve1:~# ceph health detail
HEALTH_OK

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Proxmox: Possible data damage: 1 pg recovery_unfound se publicó primero en Blog VMware y Citrix.

Proxmox: Configurar HA en Clúster

$
0
0

Proxmox: Configurar HA en Clúster

Hoy vamos a explicar cómo configurar HA sobre un clúster Proxmox. Funcionalidad de la que ya dispone otros sistemas con alto coste, y que implementa Proxmox con su licencia GNU AGPL, v3 

Para implementarlo simplemente vamos a la vista Servidor -> Centro de datos -> HA -> Grupos:

proxmox-configurar-ha-en-cluster-1

Pulsamos Crear:

proxmox-configurar-ha-en-cluster-2

Le damos un nombre y elegimos los hosts para la regla. Podemos crear las que queramos:

proxmox-configurar-ha-en-cluster-3

Ahora volvemos al menú HA y pulsamos Agregar:

proxmox-configurar-ha-en-cluster-5

Seleccionamos la VM:

proxmox-configurar-ha-en-cluster-6a

El grupo, ajustamos los parámetros y le ponemos un Comentario:

proxmox-configurar-ha-en-cluster-6

Una vez creada, la máquina si está en otro host se moverá automáticamente:

proxmox-configurar-ha-en-cluster-7

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Proxmox: Configurar HA en Clúster se publicó primero en Blog VMware y Citrix.

Citrix HDX Realtime Connector No Optimizado

$
0
0

Citrix HDX Realtime Connector No Optimizado

Citrix HDX Realtime Connector es un complemento de Citrix Receiver que optimiza el tráfico cuando en vuestra granja XenApp / XenDesktop, utilizáis Skype u otros programas de videoconferencia como Webex,…, por ejemplo.
Posibilitando que Skype trabaje con audio/video de alta definición. Se modifica la conexión para ese tráfico, optimizando y paliando en gran medida el uso excesivo de CPU.

citrix-hdx-realtime-connector-no-optimizado-0

Para su instalación se instala el agente en la VDA del HDX Optimization:

https://docs.citrix.com/en-us/hdx-optimization/2-4-ltsr/download.html

Si sólo dejáis el agente en la VDA, cuando un usuario abre sesión se puede encontrar el siguiente mensaje «Citrix HDX Realtime Connector – No optimizado»:

citrix-hdx-realtime-connector-no-optimizado-1

Para evitar ese error y hacer que HDX trabaje correctamente, necesitamos instalar en el cliente el complemento para receiver, que podéis descargar desde la siguiente URL:

https://www.citrix.es/downloads/citrix-receiver/additional-client-software/hdx-realtime-media-engine.html

Y evitaremos el error:

citrix-hdx-realtime-connector-no-optimizado-2

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

La entrada Citrix HDX Realtime Connector No Optimizado se publicó primero en Blog VMware y Citrix.

Viewing all 680 articles
Browse latest View live