EnergyPlus Incertidumbre de la simulación energética

PAUSE

Diamante
Gran articulo, @josepsolebonet.

Es un asunto que siempre crea confusión… ¡¡porque no nos da el mismo resultado!!!

Se pierde de vista que incluso algunos de los casos del IEA Bestest permiten un ancho de banda entre el 50 y 150% de desviación sobre el resultado de referencia, especialmente en casos de baja demanda, asumiendo las variaciones entre distintos procedimientos de cálculo y la calidad (o coherencia) de los datos de entrada.

En fin… todo un mundo. Muchas gracias por arrojar algo de luz.
 
Yo creo que falta pedagogía en la incertidumbre. Estamos acostumbrados a dar un valor exacto en kWh/m² de demanda o consumo energético cuando es imposible. La duda o el "no sé" no están todavía aceptados y es humano.

Aparte de las cargas térmicas, me preocupa la incertidumbre en los archivos climáticos. Tengo la sensación que nos hemos centrado en cómo resolver las ecuaciones físicas y nos hemos olvidado de la importancia de las condiciones de contorno.

Aun así, me parece bien diseñar un edificio para un año o un uso típicos, pero ¿atrevernos a dar una estimación exacta en kWh? Es demasiado.

Hay que aprender a convivir con el error y creo que se debería a empezar a hablar de intervalos de confianza. Ya la encuestadoras se equivocan en las elecciones dando horquillas amplias de diputados, ¿cómo no vamos a equivocarnos si sólo nos permiten dar un número?

En mi opinión, a nivel de normativa, es más interesante que en un 90% de confianza el edificio cumpla, a que el valor estimado cumpla con el límite de la normativa. De esta manera también, se evitaría justificar edificios que están al límite y que cumplen porque se han alineado los planetas.
 

lufegut

Titanio
Aparte de las cargas térmicas, me preocupa la incertidumbre en los archivos climáticos. Tengo la sensación que nos hemos centrado en cómo resolver las ecuaciones físicas y nos hemos olvidado de la importancia de las condiciones de contorno
Es una inquietud que comparto. Más cuando trabajamos con unos archivos climáticos genéricos comunes para zonas geográfica y climáticamente muy diversas y variadas.

En mi opinión, a nivel de normativa, es más interesante que en un 90% de confianza el edificio cumpla, a que el valor estimado cumpla con el límite de la normativa. De esta manera también, se evitaría justificar edificios que están al límite y que cumplen porque se han alineado los planetas
Aquí estás abriendo la caja de las bombas. Porque que en un porcentaje el edificio cumpla, no solo depende del cálculo, sino en un porcentaje muy elevado, también de la ejecución.

Al final la justificación documental siempre se consigue de una forma u otra, solo es cuestión de que un valiente ponga una firma en un papel. La calidad constructiva es otra cosa.

Pero estoy totalmente de acuerdo, al final 1 kWh de más o de menos en un cálculo, no va a ninguna parte.
 
Aquí estás abriendo la caja de las bombas. Porque que en un porcentaje el edificio cumpla, no solo depende del cálculo, sino en un porcentaje muy elevado, también de la ejecución
OK, tengamos en cuenta también la incertidumbre en la ejecución, estamos en la era de los datos. Es una cuestión de medir el error que se comete al estimar y tenerlo en cuenta.

Tomando como ejemplo el estudio que ha compartido @josepsolebonet más arriba.

El valor estimado de la demanda en calefacción está alrededor de 9,5 kWh/m². Supongamos que el límite normativo estuviera en 10 kWh/m², el valor estimado cumpliría holgadamente con la normativa, pero en un X% de las situaciones, debido a la incertidumbre, el edifico tendría una demanda en calefacción por encima del límite. Yo creo que la pregunta debería ser entonces, ¿este X% es suficientemente pequeño?

Demanda de calefacción
 

PAUSE

Diamante
En nuestra labor profesional, calcular el edificio (en cualquier disciplina) siempre incluye un cierto marco normativo y de valores de partida oficialmente aceptados... que no quiere decir que sean correctos, solo que son los que debemos emplear para evitar futuras demandas (quizás suene demasiado franco, pero es la realidad).

Otro asunto es cómo realmente funciona el "objeto" que creamos... no conozco disciplina (estructuras, térmica, hidráulica, etc.) en la que realmente seamos capaces de predecir con certeza que ocurrirá.

Quizás, como dice @Adrià González Esteve, deberíamos adoptar el principio de la mecánica cuántica y establecer tan solo la probabilidad de que un suceso ocurra, en lugar de intentar calcular con certeza lo que sucederá.

Ahí lo dejo...
 
No se trata de "poner en duda" los cálculos normativos que usan valores "por defecto" que se consideran "ciertos" sin ningún margen de incertidumbre, sino de pensar qué incidencia podría llegar a tener el hecho de que asumiésemos que los datos contienen una relativa incertidumbre.

El origen de este estudio me lo planteé cuando hice la comparación entre la definición de cargas que figura en la reglamentación española en relación a la de Francia o a las normas internacionales, fruto de esta comparación me salió que cada "fuente" tiene sus propios criterios y que a veces son más penalizantes y a veces más benignos, esto me puso en evidencia (¡era obvio por otra parte!) que las definiciones de cargas entrañan un cierto margen de incertidumbre (arbitrariedad) y quise cuantificar esta situación.

El método me parece que puede ser aplicable a otros escenarios tan o más importantes que la definición de cargas, como pueden ser las características de los componentes (resistencias térmicas, factores solares...) o para variaciones de las temperaturas de consigna o... lo que podría ser equivalente a "errores" de ejecución o de utilización del edificio.

En el caso de datos climáticos se podría aplicar un método similar construyendo primero los diferentes ficheros climáticos con la variabilidad que quisiésemos considerar.

Estos análisis, junto con los de sensibilidad, deberían permitir determinar qué parámetros son "clave" y sobre los que se debe establecer un control estricto de su verosimilitud y sobre cuáles no vale la pena "perder" el tiempo.

La simulación energética no está prevista (solo) para la verificación reglamentaria, sino para muchísimas cosas más tan o más interesantes que saber si un edificio es "legal" o "delincuente".
 
No se trata de "poner en duda" los cálculos normativos que usan valores "por defecto" que se consideran "ciertos" sin ningún margen de incertidumbre, sino de pensar qué incidencia podría llegar a tener el hecho de que asumiésemos que los datos contienen una relativa incertidumbre
Exacto, a mí me parece que al usar ratios W/m² para modelar las cargas internas, por ejemplo, diluye los picos de uso del espacio y creo que su efecto no debería ser despreciable en simulaciones dinámicas. Una persona está en la cocina, en el baño, en un dormitorio o en el salón; pero no está 0,25 veces simultáneamente en cada espacio... por no hablar de las salas de reuniones que durante un hora al día, a lo mejor, se concentran unas 10 personas pero el resto del tiempo están vacías. Esta variabilidad en la ocupación pueden provocar horas fuera de rango, por ejemplo, que usando un ratio nunca se producirán.

Además, ¿cómo conseguimos fijar un ratio W/m² que sea útil para estimar la demanda energética en frío y en calor a la vez?

Quizás, como dice @Adrià González Esteve, deberíamos adoptar el principio de la mecánica cuántica y establecer tan solo la probabilidad de que un suceso ocurra, en lugar de intentar calcular con certeza lo que sucederá
Creo que no hace falta irse tan lejos :LOL:, pero me sorprende que aceptemos que el 17 de enero a las 15 h habrá 10 °C sin rechistar. Estamos acostumbrados a considerar las condiciones de contorno estáticas pero, a medida que vayan mejorando los tiempos de cálculo de los softwares, deberíamos empezar a ser más ambiciosos y modelar la climatología y las cargas internas con procesos estocásticos que modelen su incertidumbre. De esta manera se simularía el desempeño del edificio a lo largo de la vida útil teniendo en cuenta que puede haber una ola de calor o un confinamiento de unos cuantos meses :LOL:

Se pierde de vista que incluso algunos de los casos del IEA Bestest permiten un ancho de banda entre el 50 y 150% de desviación sobre el resultado de referencia, especialmente en casos de baja demanda, asumiendo las variaciones entre distintos procedimientos de cálculo y la calidad (o coherencia) de los datos de entrada
No sé, echo en falta medidas del error y un conocimiento de las herramientas que nos permitan saber las consecuencias de cada simplificación. Porque luego pretendemos tomar decisiones a partir de los resultados.
 

PachiB

Esmeralda
En nuestra labor profesional, calcular el edificio (en cualquier disciplina) siempre incluye un cierto marco normativo y de valores de partida oficialmente aceptados... que no quiere decir que sean correctos, solo que son los que debemos emplear para evitar futuras demandas (quizás suene demasiado franco, pero es la realidad).

Otro asunto es cómo realmente funciona el "objeto" que creamos... no conozco disciplina (estructuras, térmica, hidráulica, etc.) en la que realmente seamos capaces de predecir con certeza que ocurrirá.

Quizás, como dice @Adrià González Esteve, deberíamos adoptar el principio de la mecánica cuántica y establecer tan solo la probabilidad de que un suceso ocurra, en lugar de intentar calcular con certeza lo que sucederá
En realidad, desde hace años, el enfoque de muchas de las exigencias normativas es ya probabilístico (frente a los métodos tradicionales basados en coeficientes de seguridad). En particular, los valores reglamentarios del DB-HE se han fijado teniendo en cuenta un análisis de sensibilidad no sólo de los factores propios de la geometría y construcción del edificio, el clima o el uso, sino de la evolución de los precios de la energía, los costes de las emisiones de CO2, las distintas tasas de retorno de la inversión, etc.

Es un tema sumamente interesante y es cierto que el hecho de que los programas realicen cálculos con muchos decimales, con modelos complejos, y teniendo en cuenta numerosos datos puede dar la (falsa) sensación de que lo que se obtiene es una verdad absoluta y sin matices o necesidad de interpretación.

Pero hay que tener en cuenta que estos análisis también tienen sus cuestiones metodológicas, como la forma de hacer el muestreo de los parámetros de entrada, que pueden condicionar el resultado. Un muestreo simple en los rangos de entrada, por ejemplo, sesga los resultados hacia el valor central, y serían más recomendables otras estrategias, como el Latin Hypercube Sampling, con muestras repartidas de manera más uniforme. En fin... todo un mundo, pero interesante que se saque a colación.
 

PAUSE

Diamante
Una pregunta, @Pachi, ¿en las distribuciones de probabilidad para los indicadores del CTE actualmente se emplea el método Montecarlo o el Hipercubo Latino?
 

PachiB

Esmeralda
Bueno, LHS es también un método de Montecarlo, pero con una estrategia de muestreo que no es la más habitual.

En nuestro caso, la última vez no hicimos muestreo aleatorio... sino que usamos fuerza bruta (:eek:). O, para ser más precisos, después de haber hecho algún muestreo aleatorio en 2013 y ahora otro más pequeño para aspectos concretos, pudimos acotar lo suficiente los valores de los parámetros para no acabar con una explosión combinatoria inmanejable, evitando pasar demasiado del medio millón de simulaciones (no estoy seguro de si llegamos a 700.000 casos en algún momento).

Hay que tener en cuenta que llevamos haciendo análisis de simulaciones masivas de datos ya unos diez años, y tenemos cierta experiencia a la hora de ver qué estrategias nos dan más información. Por ejemplo, en 2013 hicimos más muestreo aleatorio y así ahora pudimos evitar simular casos que no tenían demasiado sentido 😁 Este tipo de análisis son procesos iterativos, los modelos necesitan ser refinados y corregidos a medida que se ven resultados parciales, y con eso se va modificando el experimento. Por otro lado, en realidad nunca se hace una sola pasada, sino que se resimula el conjunto (o algunas partes) con cierta frecuencia. Todo esto es imposible, claro, sin automatizar todo mucho, sin usar ordenadores trabajando en paralelo, y analizando los resultados con técnicas estadísticas. Como curiosidad, las primeras pasadas nos suponían tener varios ordenadores trabajando durante varios días seguidos, cada uno haciendo varias simulaciones a la vez (12 a la vez con los últimos equipos).
 

PAUSE

Diamante
hicimos más muestreo aleatorio y así ahora pudimos evitar simular casos que no tenían demasiado sentido
Por curiosidad... ¿en estos muestreos qué tipo de casos dan muestras de mayor dispersión? Tiene que ver con la tipología, climas, soluciones constructivas...

Personalmente, cuando he realizado muestreos (mucho más modestos, por supuesto, que los vuestros) los casos de tipología unifamiliar en climas A y B son los que mayor dispersión han mostrado.
 

PAUSE

Diamante
Acabo de darme cuenta que desviando el tema a muestreos por Montecarlo o LHS alguien debe estar pensando que somos los más frikis del foro... :ROFLMAO: :ROFLMAO: :ROFLMAO:
 
En mi caso no han hecho falta ni ordenadores en paralelo ni varios días de cálculo (me ha sido suficiente un portátil, no de última generación, y una tarde de cálculo).
Con un buen muestreo se pueden extraer conclusiones estadísticas de conjuntos universales (¡los expertos en encuestas sociológicas lo saben bien!).
 

PachiB

Esmeralda
Por curiosidad... ¿en estos muestreos qué tipo de casos dan muestras de mayor dispersión? Tiene que ver con la tipología, climas, soluciones constructivas
La tipología en relación al clima, puesto que en cierto modo ambas están relacionadas y, además, se junta con el problema de definir la composición del parque (qué peso puedes asignar a cada tipo, lo que depende de épocas, zonas, climas...).

En mi caso no han hecho falta ni ordenadores en paralelo ni varios días de cálculo (me ha sido suficiente un portátil, no de última generación, y una tarde de cálculo).
Con un buen muestreo se pueden extraer conclusiones estadísticas de conjuntos universales (¡los expertos en encuestas sociológicas lo saben bien!)
Para un edificio/clima, etc, concretos el problema se reduce muchísimo y sin duda que pueden obtenerse conclusiones muy interesantes las simulaciones que se pueden hacer con cualquier ordenador. Como dices, en las encuestas se estudia mucho el tamaño muestral que te permite obtener la potencia estadística deseada.
 
Arriba