TEORIA DE CONJUNTOS
La teoría de conjuntos es una rama de la lógica matemática que estudia las propiedades y relaciones de los conjuntos: colecciones abstractas de objetos, consideradas como objetos en sí mismas. Los conjuntos y sus operaciones más elementales son una herramienta básica en la formulación de cualquier teoría matemática.1La teoría de los conjuntos es lo suficientemente rica como para construir el resto de objetos y estructuras de interés en matemáticas: números, funciones, figuras geométricas,...; gracias a las herramientas de la lógica, permite estudiar los fundamentos de aquella. En la actualidad se acepta que el conjunto de axiomas de la teoría de Zermelo-Fraenkel es suficiente para desarrollar toda la matemática.
Además, la propia teoría de conjuntos es objeto de estudio per se, no sólo como herramienta auxiliar, en particular las propiedades y relaciones de los conjuntos infinitos. En esta disciplina es habitual que se presenten casos de propiedades indemostrables o contradictorias, como la hipótesis del continuo o la existencia de un cardinal inaccesible. Por esta razón, sus razonamientos y técnicas se apoyan en gran medida en la lógica.
El desarrollo histórico de la teoría de conjuntos se atribuye a Georg Cantor, que comenzó a investigar cuestiones conjuntistas «puras» del infinito en la segunda mitad del siglo XIX, precedido por algunas ideas de Bernhard Bolzano e influido por Richard Dedekind. El descubrimiento de las paradojas de la teoría cantoriana de conjuntos, formalizada por Gottlob Frege, propició los trabajos de Bertrand Russell, Ernst Zermelo, Abraham Fraenkel y otros a principios del siglo XX.
LOGICA MATEMATICA
La lógica matemática, también llamada lógica simbólica, lógica teorética, lógica formal o logística,1 es el estudio matemático de la lógica y su aplicación a otras áreas de la matemática y la ciencia. Comprende la aplicación de las técnicas de la lógica formal a las matemáticas y el razonamiento matemático, y conversamente la aplicación de técnicas matemáticas a la representación y el análisis de la lógica formal. La investigación en lógica matemática ha jugado un papel crucial en el estudio de los fundamentos de las matemáticas.La lógica matemática estudia la inferencia mediante la construcción de sistemas formales como la lógica proposicional, la lógica de primer orden o la lógica modal. Estos sistemas capturan las características esenciales de las inferencias válidas en los lenguajes naturales, pero al ser estructuras formales susceptibles de análisis matemático, permiten realizar demostraciones rigurosas sobre ellas.
La lógica matemática se suele dividir en cuatro áreas: teoría de modelos, teoría de la demostración, teoría de conjuntos y teoría de la computabilidad. La teoría de la demostración y la teoría de modelos fueron el fundamento de la lógica matemática. La teoría de conjuntos se originó en el estudio del infinito por Georg Cantor y ha sido la fuente de muchos de los temas más desafiantes e importantes de la lógica matemática, a partir del teorema de Cantor, el axioma de elección y la cuestión de la independencia de la hipótesis del continuo, al debate moderno sobre grandes axiomas cardinales. La lógica matemática tiene estrechas conexiones con las ciencias de la computación. La teoría de la computabilidad captura la idea de la computación en términos lógicos y aritméticos. Sus logros más clásicos son la indecidibilidad del Entscheidungsproblem de Alan Turing y su presentación de la tesis de Church-Turing. Hoy en día, la teoría de la computabilidad se ocupa principalmente del problema más refinado de las clases de complejidad (¿cuándo es un problema eficientemente solucionable?) y de la clasificación de los grados de insolubilidad.
ALGEBRA BOOLEANA
Es una rama especial del álgebra que se usa principalmente en electrónica digital. El álgebra booleana fue inventada en el año 1854 por el matemático inglés George Boole.El álgebra de Boole es un método para simplificar los circuitos lógicos (o a veces llamados circuitos de conmutación lógica) en electrónica digital.
Por lo tanto, también se llama como "Cambio de álgebra". Podemos representar el funcionamiento de los circuitos lógicos utilizando números, siguiendo algunas reglas, que son bien conocidas como "Leyes del álgebra de Boole".
También podemos hacer los cálculos y las operaciones lógicas de los circuitos aún más rápido siguiendo algunos teoremas, que se conocen como "Teoremas del álgebra de Boole". Una función booleana es una función que representa la relación entre la entrada y la salida de un circuito lógico.
La lógica booleana solo permite dos estados del circuito, como True y False. Estos dos estados están representados por 1 y 0, donde 1 representa el estado "Verdadero" y 0 representa el estado "Falso".
Lo más importante para recordar en el álgebra de Boole es que es muy diferente al álgebra matemática regular y sus métodos. Antes de aprender sobre el álgebra de Boole, vamos a contar un poco sobre la historia del álgebra de Boole y su invención y desarrollo.
Preguntas:
¿Que es un conjunto?
Un conjunto es una colección de elementos con características similares considerada en sí misma como un objeto. Los elementos de un conjunto, pueden ser las siguientes: personas, números, colores, letras, figuras, etc. Se dice que un elemento (o miembro) pertenece al conjunto si está definido como incluido de algún modo dentro de él.
¿Qué es un subconjunto?
Conjunto de elementos que tienen las mismas características y que está incluido dentro de otro conjunto más amplio.
¿Qué es el Diagrama de Venn?
Un diagrama de Venn usa círculos que se superponen u otras figuras para ilustrar las relaciones lógicas entre dos o más conjuntos de elementos.
¿Para que se utiliza el Diagrama de Venn?
Se utilizan para organizar cosas de forma gráfica, destacando en qué se parecen y difieren los elementos.
¿En que áreas se utilizan los Diagramas de Venn?
Se usan amplia mente en las áreas de matemática, estadística, lógica, enseñanza, lingüística, informática y negocios.
¿Cuando se creó el Diagrama de Venn?
Los diagramas de Venn fueron ideados hacia 1880 por John Venn.
¿Que es la Ley Distributiva?
En matemáticas y en particular en álgebra abstracta, la distributiva es la propiedad de los operadores binarios que generaliza la propiedad distributiva del álgebra elemental.
¿Qué es la Ley de Morgan?
En lógica proposicional y álgebra de Boole, las leyes de De Morgan son un par de reglas de transformación que son ambas reglas de inferencia válidas.
¿Qué es la Diferencia Simétrica?
En teoría de conjuntos, la diferencia simétrica de dos conjuntos es una operación que resulta en otro conjunto cuyos elementos son aquellos que pertenecen a alguno de los conjuntos iniciales, sin pertenecer a ambos a la vez.
¿Cómo se denota la "Diferencia Simétrica" de conjuntos?
La diferencia simétrica de conjuntos se denota por Δ, por lo que P Δ C = D.