Este tema es un eterno debate. Y no creo que le encuentres una respuesta definitiva que termine con la discusión.
Se pueden encontrar pros y contras a ambas corrientes. La decisión final pasará por analizar caso a caso y determinar las necesidades técnico-operativas junto a las restricciones técnico-operativa y legales.
Hay múltiples factores a considerar: tamaños de las imágenes, tasa de crecimiento de la base de datos estimada por año y proyectada a cierto tiempo, volúmen de operaciones diarias y sobre todo si constantemente se va a estar realizando operaciones ABM sobre las imágenes, si se va a ser necesario llevar un histórico de tales cambios.
Respecto a que el poder de una máquina es superior con los años eso no te lo discuto pero ten en cuenta que en la misma medida en que avanza la tecnología aumenta la misma demanda de hacer más cosas al mismo tiempo y hasta las necesidades y volúmen de datos tienden a un ritmo exponencial.
Esto hace que si bien las máquinas son cada vez más superiores, sigue existiendo esfuerzo por hacer de los sistemas algo más eficiente, rápido, y menos invasivo en cuanto a recursos (ram, disco, etc).
¿Entiendes algo sobre notación O y/o complejidad computacional? Espero que sí porque voy a ilustrarte el porqué es una buena razón que nuestros sistemas sean eficientes y estén bien pulidos.
Digamos que tengo un sistema cuya funcionalidad sea procesar un volumen de datos y tras un análisis de los algoritmos se ha determinado que su complejidad computacional es O(n^2); siendo n dicho volumen.
Hagamos algunos cálculos, supongamos el hipotético caso en que el valor de la constante c=2.
n = 10 >> O(10^2) = c100 = 200 mseg
n = 100 >> O(100^2) = c10000 = 20000 mseg
n = 1000 >> O(1000^2) = c1000000 = 2000000 mseg
Han pasado 2 años, han adquirido un nuevo equipo, que ofrece una c=1. Es decir que es el doble de rápida. Los cálculos para esta máquina indican:
n = 10 >> O(10^2) = c100 = 100 mseg
n = 100 >> O(100^2) = c10000 = 10000 mseg
n = 1000 >> O(1000^2) = c1000000 = 1000000 mseg
Hasta allí todo bien, y no pareciera ser problema. Pero he aquí que durante estos dos años el volumen de los datos no creció en la misma progresión lineal que el poder de la tecnología y fue un año bastante productivo... tenemos ahora en realidad 4 veces lo producido. Veamos que sucede:
n = 40 >> O(40^2) = c1600 = 1600 mseg
n = 400 >> O(400^2) = c160000 = 160000 mseg
n = 4000 >> O(4000^2) = c16000000 = 16000000 mseg
Aún cuando el volumen de datos fuera el doble, los números indicarían un crecimiento en los tiempos de procesamiento. Todo por ese pobre algoritmo que ya no está a la altura.
Suponte que la competencia, con un mejor sentido de la proyección de la demanda de procesamiento y el volumen de datos destinó mucho esfuerzo en hacer de su producto y consguió hacer un sistema que es capaz de resolver todo en O(n log n)*.
*Recuerda que en complejidad computacional, log corresponde a Log2 o logaritmo de base 2.
Para el equipo viejo (el de c=2) sus tiempos son (redondeado hacia arriba):
n = 10 >> O(10 log 10) = c34 = 68 mseg
n = 100 >> O(100 log 100) = c665 = 1330 mseg
n = 1000 >> O(1000 log 1000) = c9966 = 19932 mseg
Para cuando aparece el nuevo equipo (c=1) y con la demanda (4x) prevista entonces:
n = 40 >> O(40 log 40) = c213 = 213 mseg
n = 400 >> O(400 log 400) = c3458 = 3458 mseg
n = 4000 >> O(4000 log 4000) = c47863 = 47863 mseg
¿Viste en cómo a pesar de que el poder computacional ayuda mucho, el contar con un buen algoritmo y preveer la demanda a funturo es una herramienta que mejorará las cosas?
Por ello es que existe un enorme esfuerzo en la comunidad científica de la informática (cuyo perfil está cubierto por lo general de la ciencias en [de/la] computación) en producir métodos y llevar estudios y análisis de algoritmos cada vez más bajos y lineales posibles. Un ejemplo de ello lo puedes ver en TimSort, que es un algoritmo de ordenamiento bastante reciente comparado con los tradicionalmente conocidos. TimSort ofrece un O(n log n) en el peor caso y en el mejor caso es O(n). Hace poco que algunos lenguajes y bibliotecas se lo ha incorporado como algoritmo por defecto. Los demás siguen utilizando QuickSort por defecto**.
** Bueno, también hay que considerar que no todos los algoritmos de ordenamiento son aplicables así como así sino que dependiendo de ciertas necesidades, el tipo de datos y el contexto o naturaleza del problema hay algoritmos que pueden ser más útiles que otros; aún cuando la teoría dice QS "es el rey".
Y así como he expuexto esto en base a la complejidad computacional, también se puede llevar el análisis por el consumo de memoria, ancho de banda/uso de red consumido, etc.
Asi que mi consejo a todos los que piensan en "el poder de la máquina lo compensa", mejor lo revean.

Saludos,