¿Para qué sirve un parche en informática?

La mejor respuesta

Imagine un programa informático grande, digamos, un archivo de 100 MB de longitud.

Ahora imagine una pequeña corrección, digamos, una corrección que cambia solo unos pocos bytes en esos 100 MB.

Publicar un reemplazo para el archivo de programa de 100 MB es una pérdida de ancho de banda. La descarga lleva mucho tiempo y consume mucho espacio innecesariamente.

En su lugar, puede ejecutar un pequeño programa cuyo único propósito es localizar el archivo original de 100 MB en la computadora del cliente y luego cambiar esos pocos bytes que constituyen la solución. Esto sería un parche.

Por supuesto, la palabra «parche» en estos días se usa de manera bastante informal para describir cualquier relanzamiento menor de un software, independientemente de la forma el relanzamiento toma; puede ser en forma de parche como describí anteriormente, o puede ser simplemente un conjunto de archivos de reemplazo o incluso un nuevo paquete de instalación, a menudo se le sigue llamando «parche» si el propósito del paquete es solo para corregir algunos errores o implementar otros cambios menores.

Respuesta

Bueno, en el nivel más bajo, un chip de computadora está hecho de transistores. Estos son pequeños parches de silicio, con impurezas deliberadas para que puedan actuar como pequeños interruptores.

Los transistores se construyen en circuitos agregando una capa de pequeños cables para conectarlos.

Los transistores están integrados en «puertas lógicas» que pueden realizar operaciones lógicas muy simples:

  • Y: si hay dos señales de entrada presentes, genera una señal de salida.
  • O – si una o ambas señales de entrada están presentes, genere una señal de salida.
  • XOR – si solo una de las señales de entrada está presente, pero no la otra, genere una salida.
  • NO, que tiene solo una entrada, y genera una salida solo si no hay señal en la entrada.

Cada una de esas puertas lógicas son solo un par de transistores.

Las puertas lógicas se pueden ensamblar para hacer cosas como «flip flops» que contienen un único valor verdadero / falso y recordarlo, o «sumadores de un bit» que pueden sumar dos dígitos binarios y producir una salida y un poco de «acarreo».

En Los sumadores de bits se pueden combinar para hacer trozos de circuitos que pueden sumar dos números más grandes (o restarlos usando un truco llamado «aritmética en complemento a dos).

También podemos construir cosas llamadas» cambiadores «que pueden multiplique un número por dos, cuatro, ocho, dieciséis, etc.

Se pueden juntar un montón de flip-flops para construir un trozo de circuito que pueda almacenar un número entero, y un montón de ESOS trozos puede hacer un bloque de memoria RAM que puede contener muchos, muchos números.

A partir de esos bloques sumadores y cambiadores, puede construir circuitos que se multipliquen y dividan … y a partir de ellos, podemos hacer circuitos que calculen cosas como senos y cosenos y raíces cuadradas. También podemos hacer circuitos que comparen dos números restando uno del otro y viendo si el resultado es positivo, cero o negativo.

Luego, hay un montón de lógica de control, que puede decirle a estos otros grandes trozos de circuito para mover un número de un lugar en la RAM a otro, o para sumar dos números tomados de la RAM y escribirlos en otro lugar de la RAM.

El paso final es usar un número almacenado en RAM para decirle a la lógica de control qué hacer … así que ESE número es un código que representa una instrucción en un programa de computadora. Entonces, tal vez el número «1» significa «mover un número de un lugar a otro» y «2» significa «sumar dos números» y «3» significa «comparar dos números». Después de que se ha llevado a cabo cada instrucción, el circuito busca la siguiente instrucción y la ejecuta también. Si haces una comparación, puedes decirle a ese bloque de lógica que comience a tomar la siguiente instrucción desde otro lugar.

Esta es una computadora MUY simple, pero bastante utilizable … pero las cosas se han vuelto MUCHO más complejas que eso.

Cuando se combinan todos estos circuitos lógicos cada vez más complicados, ¡podríamos terminar con un chip con más de mil millones de esos pequeños transistores!

A eso lo llamamos la «CPU «Chip.

Luego, obtenemos los otros chips que hacen que toda la computadora – notablemente, están los» chips de RAM «que almacenan números como nuestro flip-flop – pero usando un método más eficiente en el espacio . Estos chips usan condensadores en lugar de transistores, y al cargar un condensador (o no) almacenan un solo bit de información en menos espacio que un flip-flop. Estos chips de RAM son más o menos un vasto mar de condensadores y lógica de control. Miles de millones de ellos en un solo chip.

Luego también tenemos chips que hacen cosas como enviar el contenido de una porción de RAM a una pantalla para hacer una visualización. Los números en la RAM se agrupan en conjuntos de tres que representan el brillo de los colores rojo, verde y azul en un solo píxel en la pantalla. Se utilizan millones de números para describir la imagen que ve, y la computadora cambia esos colores en cada píxel escribiendo números en esa memoria RAM.

La máquina resultante es lo más complejo que han creado los humanos: FAR. Un teléfono celular o una computadora portátil podría estar avanzando hacia un billón de transistores y condensadores.

Como ingeniero de software de 62 años, me parece bastante sorprendente que todo esto haya sido posible durante mi vida. Cuando comencé a hacer esto, las computadoras todavía se hacían de la misma manera, pero un transistor era algo del tamaño de una menta tic-tac, ¡y ahora son más pequeños que la longitud de onda de la luz!

Pero tan asombroso como toda esa complejidad es … lo que me asombra totalmente es lo increíblemente confiable que es todo.

Su automóvil puede estar hecho de 10,000 partes, algunas de las cuales hacen cosas miles de veces por segundo. Después de algunos años (que son quizás unos miles de horas de funcionamiento), algunas de esas piezas saldrán mal y será necesario reemplazarlas.

Mi computadora está hecha de un billón de piezas, la mayoría de las cuales funcionan correctamente. unos miles de millones de veces por segundo. Su hardware funcionará sin problemas durante una década, lo que representa unos cientos de miles de horas de operaciones, pero un trillón de operaciones individuales, cada una de las cuales sucedió sin problemas.

Las computadoras son cosas realmente asombrosas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *