Método de confirmación en la ciencia.

La evidencia científica es evidencia que sirve para apoyar o refutar una teoría o hipótesis científica. Dicha evidencia se espera que sea evidencia empírica y su interpretación de acuerdo con el método científico. Los estándares para la evidencia científica varían según el campo de estudio.

Método de confirmación en ciencia

La confirmación en ciencia es la máxima confianza en la veracidad de algo, la ausencia de duda sobre algo basada en un hecho o hechos que prueban la verdad de un enunciado, teoría, afirmación, etc.

El término "confirmación" se usa en la epistemología y filosofía de la ciencia siempre que la evidencia observacional y la evidencia "respaldan" o respaldan teorías científicas e hipótesis cotidianas. Históricamente, la confirmación ha estado estrechamente ligada al problema de la inducción, la cuestión de qué se puede creer sobre el futuro frente a un conocimiento que se limita al pasado y al presente.

La cognición y el comportamiento humanos se basan en gran medida en la noción de que la evidencia (datos, premisas) puede afectar la validez de las hipótesis (teorías, conclusiones). Esta idea general parece ser la base de una práctica lógica sólida y eficiente en todas las áreas, desde el razonamiento cotidiano hasta las fronteras de la ciencia. Sin embargo, también está claro que, incluso en presencia de datos extensos y veraces, sacar una conclusión errónea no es solo una posibilidad. Como ejemplos dolorosamente tangibles, se deben considerar, por ejemplo, diagnósticos médicos erróneos o errores judiciales.

Los principales métodos de confirmación en la ciencia

Experimentos

Experimento (del lat. experimentum  - prueba, experiencia) en el método científico - un conjunto de acciones y observaciones realizadas para probar (verdadero o falso) una hipótesis o un estudio científico de las relaciones causales entre fenómenos. El experimento es la piedra angular del enfoque empírico del conocimiento. El criterio de Popper plantea la posibilidad de establecer un experimento como principal diferencia entre una teoría científica y una pseudocientífica.

El experimento se divide en las siguientes etapas:

• Colección de información;

• Observación del fenómeno;

• Análisis;

• Desarrollo de una hipótesis para explicar el fenómeno;

• Desarrollo de una teoría para explicar el fenómeno a partir de supuestos en un sentido más amplio.

Investigación científica

La investigación científica  es el proceso de estudiar, experimentar, conceptualizar y probar una teoría asociada con la obtención de conocimiento científico.

Tipos de investigación: Investigación básica realizada principalmente para generar nuevos conocimientos independientemente de las perspectivas de aplicación. Investigación aplicada.

Observaciones

La observación  es un proceso intencional de percepción de objetos de la realidad, cuyos resultados se registran en la descripción. La observación repetida es necesaria para obtener resultados significativos.

Ejemplos de trabajos con confirmación científica

Confirmación por ejemplos (Teoría de Nikod)

En un ensayo original sobre la inducción, Jean Nicod (1924) hizo la siguiente observación importante:

Considere una fórmula o ley: F implica G. ¿Cómo puede un enunciado particular o, más brevemente, un hecho afectar su probabilidad? Si este hecho consiste en la presencia de G en el caso de F, esto es favorable a la ley; por el contrario, si consiste en la ausencia de G en el caso de F, esto es desfavorable para esta ley [1] . El trabajo de Nicod fue una fuente influyente para las primeras investigaciones de Carl Gustav Hempel (1943, 1945) sobre la lógica de confirmación. Según Hempel, el mensaje válido clave de la afirmación de Nikod es que el informe de observación de que un objeto a muestra propiedades de F y G (por ejemplo, a es un cisne y es blanco) respalda la hipótesis universal de que todos los objetos F son G- objetos. (a saber, que todos los cisnes son blancos). Aparentemente, es con este tipo de confirmación que uno puede obtener evidencia de apoyo para afirmaciones como "las sales de sodio se queman amarillas", "los lobos viven en una manada" o "los planetas se mueven en órbitas elípticas".

La teoría de Hempel

La teoría de Hempel considera la conexión no deductiva de confirmación entre la evidencia y la hipótesis, pero se basa completamente en la lógica estándar para su formulación técnica completa. Como consecuencia, también va más allá de la idea de Nicod en términos de claridad y rigor.

Confirmación de Hempel

Carl Gustav Hempel formuló las condiciones lógicas que debe satisfacer cualquier definición adecuada de confirmación:

1) cualquier declaración que siga a la descripción de la observación es confirmada por esta descripción;

2) si la descripción de la observación confirma la hipótesis H, entonces confirma cualquier consecuencia de H y cualquier hipótesis H1 que sea lógicamente equivalente a H;

3) cualquier descripción consistente de una observación es lógicamente compatible con la clase de todas las hipótesis que confirma.

El cumplimiento de estas condiciones es necesario, pero no suficiente: la definición de confirmación "debe proporcionar una aproximación racional al concepto de confirmación, que está implícitamente presente en la práctica científica y en las discusiones metodológicas" [2] . Para lenguajes de teorías científicas que son suficientemente simples en su estructura lógica, se puede formular una definición exacta de confirmación utilizando el criterio de satisfacibilidad: una hipótesis se confirma mediante alguna descripción de una observación si es verdadera para una clase finita de objetos referidos. en la descripción de la observación. Esta definición se aplica a cualquier hipótesis que pueda formularse en términos de "lenguaje de observación" utilizando lógica estándar con cuantificadores. Sin embargo, su aplicación a los enunciados teóricos está limitada debido a la irreductibilidad práctica de los "términos teóricos" a los "términos de observación".

Teorías bayesianas de confirmación

El teorema de Bayes es un elemento central del cálculo de probabilidades [3] . Por razones históricas, el estándar bayesiano se ha convertido en una etiqueta estándar para una variedad de enfoques y posiciones que comparten la idea común de que la probabilidad (en su sentido matemático moderno) desempeña un papel fundamental en la creencia, la inferencia y el comportamiento racionales. Según los epistemólogos y filósofos de la ciencia bayesianos, los agentes racionales tienen información de fuerza variable, que además satisface los axiomas de probabilidad y, por lo tanto, puede representarse en forma probabilística. Son conocidos los argumentos a favor de esta posición, aunque no faltan las dificultades y las críticas.

Sin embargo, más allá de las ideas básicas esbozadas anteriormente, el panorama teórico del bayesianismo es tan irremediablemente diverso como fértil. Las reseñas y las presentaciones de vanguardia ya son numerosas y ostensiblemente van en aumento. Para los propósitos presentes, la atención puede limitarse a la clasificación, que todavía es bastante tosca, basada en solo dos dimensiones o criterios.

Primero, hay una diferencia entre el permiso y el impermisivismo (no aceptación). Para los bayesianos permisivos (a menudo llamados "subjetivistas"), la conformidad con los axiomas de probabilidad es la única restricción clara sobre la autoridad de un agente racional. En formas inválidas de bayesianismo (a menudo llamado "objetivo"), se presentan restricciones adicionales que limitan en gran medida el rango de datos racionales, quizás a una sola función de probabilidad "correcta" en cualquier contexto dado. En segundo lugar, existen diferentes aproximaciones al llamado principio de prueba completa (TE) de la evidencia en la que se apoya el pensador. Los TE Bayesianos argumentan que los poderes correspondientes deberían estar representados por una función de probabilidad P, que transmite la totalidad de lo que el agente sabe. Para enfoques distintos de TE, dependiendo de las circunstancias, P puede (o debe) establecerse de tal manera que parte de la evidencia disponible se encierre entre corchetes.

Confirmación empírica de G. Reyenbach

Uno de los primeros intentos de construir una lógica de confirmación de conceptos científicos (empíricos) pertenece al famoso físico, matemático y filósofo G. Reichenbach . Todo conocimiento científico, creía, por su propia naturaleza tiene un carácter hipotético y fundamentalmente probabilístico. La escala en blanco y negro de evaluar el conocimiento como verdadero o falso, adoptada en la epistemología clásica de la ciencia, es, en su opinión, una idealización demasiado fuerte y metodológicamente injustificada, ya que la gran mayoría de las hipótesis científicas tienen algún valor intermedio entre la verdad. (1) y falsedad (0) . Estos últimos son solo dos valores de verdad extremos de un número infinito de posibles en el intervalo (0; 1).

Considerando que a la validez de cada hipótesis científica se le puede y se le debe asignar un valor numérico bien definido a partir del cálculo del material empírico que la confirma, y ​​que este valor es una probabilidad, Reichenbach propuso dos métodos para determinar la probabilidad de las hipótesis empíricas. Ambos métodos se basan en su concepto de probabilidad de frecuencia, según el cual todos los enunciados probabilísticos correctos tienen contenido fáctico y deben construirse como enunciados sobre el límite de la frecuencia relativa de ciertos tipos de eventos en una secuencia infinita de ensayos [4] .

El papel de la confirmación en el desarrollo de la ciencia

El problema de la evidencia antigua

Clark Glymour enfatizó que una prueba no es una prueba, sino solo una consecuencia del trabajo científico realizado. La confirmación de la verdad del concepto en consideración es un resultado completamente diferente, ya que probar la corrección del investigador no es necesariamente una consecuencia de encontrar la verdad. Las inferencias casi siempre pueden alinearse con el esquema bayesiano ad hoc, ya que el razonamiento científico es capaz de construir un sistema adecuado incluso cuando se basa en evidencia falsa.

Según Glymur, un inconveniente importante de la posición bayesiana es que contiene evidencia que se sabe que es cierta antes de la formulación de la teoría. Por la vieja prueba

eo , PAG ( eo / h ) = PAG ( eo ) = 1.

En este caso

PAG ( h / eo ) = PAG ( h ),

donde eo no aumenta la probabilidad de h , lo cual es contrario al sentido común. La teoría clásica de la gravedad de Newton, la teoría de la circulación sanguínea de Harvey, la teoría de la relatividad de Einstein y otras: en cada caso, los científicos de esa época aceptaron la evidencia de e en apoyo de la teoría de T. y la mayoría de los filósofos de la ciencia de hoy están de acuerdo con esta evaluación. . Por supuesto, si las teorías anteriores explicaran solo los hechos en cuestión, entonces la evaluación sería diferente.

Daniel Garber ha propuesto una solución diferente al problema de la prueba preliminar. Según Garber, lo que se logra al incorporar evidencia antigua a una hipótesis es el conocimiento de que la hipótesis implica evidencia. La conjetura h está respaldada por evidencia previa ep , siempre que

P ( h / ep &( h → ep )) > P ( h / ep ).

La notación h → ep es un poco engañosa. La hipótesis h por sí sola no implica ep. Se requieren premisas adicionales que establezcan las condiciones adecuadas y, a menudo, hipótesis auxiliares. Por ejemplo, la teoría de la atracción gravitacional de Newton implica la Tercera Ley de Kepler, basada en la suposición de que varias masas puntuales que no interactúan giran alrededor de un centro de fuerza 1/R 2 . Por lo tanto, esta posición bayesiana revisada permite dos tipos de mayor apoyo de evidencia: nueva evidencia que aumenta la probabilidad posterior de una teoría y relaciones de atracción redescubiertas con evidencia antigua.

Garber enfatizó que el apoyo basado en la evidencia en el último caso solo puede obtenerse si posteriormente se encuentra la relevancia para la formulación de la teoría en cuestión. Por otro lado, si una teoría se formula específicamente para proporcionar evidencia antigua, entonces esa evidencia no brinda ningún apoyo a la teoría.

Goodman mostró cómo se podía idear un número infinito de hipótesis, dado un cierto cuerpo de evidencia como objetivo.

Evaluación de nueva evidencia

Richard W. Miller ha señalado que hay dos tipos muy diferentes de reacciones ante el descubrimiento de nueva evidencia. Puede aplicar la fórmula bayesiana para calcular el grado revisado de creencia en la hipótesis que se está considerando. Alternativamente, uno puede revisar las probabilidades previas correspondientes para que el grado de creencia en la hipótesis permanezca sin cambios. Por ejemplo, un creacionista, frente a datos que muestran un parecido cercano entre las especies de la isla y las especies continentales vecinas, puede reconsiderar su creencia inicial de que tal parecido es inverosímil. El creacionista "  ...puede llegar a la conclusión, contrariamente a su suposición original, de que los ambientes en las islas y continentes adyacentes deben ser similares y al mismo tiempo diferentes de tal manera que las especies distintivas pero similares sean la elección más adaptativa para la inteligencia creativa" [ 5] .

Miller argumentó que el enfoque bayesiano carece de una regla para determinar cuándo es aceptable tal revisión ad hoc de probabilidades previas. Insistió en que no se debe estipular que las probabilidades previas son inviolables. La historia de la ciencia contiene muchos episodios en los que ha resultado fructífera una especial revisión de las probabilidades previas. Darwin, por ejemplo, trató de ajustar las expectativas sobre lo que "debería descubrirse" en el registro fósil en respuesta al fracaso de los paleontólogos para encontrar fósiles de transición. Miller concluyó que debido a que la teoría bayesiana no ayuda a decidir si las probabilidades previas deben o no ajustarse frente a nueva evidencia, es inadecuada como teoría de apoyo a la evidencia en contextos científicos.

Filosofía Bootstrap

Según el principio bootstrap (del inglés bootstrap  - shoe lacing; principio bootstrapping - principio de retroalimentación), todos los fenómenos se caracterizan indicando su relación entre sí. Inicialmente, apareció en la filosofía oriental (en el antiguo "Libro de los cambios" chino se dice que en cada situación existen unos a otros, cada evento ("cambio") contiene elementos de todos los demás eventos, todo el proceso mundial es una alternancia de situaciones, resultantes de las fuerzas de interacción y lucha de la luz y la oscuridad, la tensión y la flexibilidad), y luego migró a la ciencia moderna: a la física, la biología, la cibernética, las matemáticas.

Bootstrap es una filosofía en la que el universo se ve como una "red de eventos interconectados", un todo inseparable cuyas partes se entrelazan y fusionan entre sí, y ninguna de ellas es más fundamental que otras, las propiedades de una parte están determinadas por el propiedades de todas las demás partes. En este sentido, podemos decir que cada parte del universo contiene todas las demás partes. Desde el punto de vista de la teoría de la evolución, esto significa que cada partícula toma parte activa en la existencia de otras partículas, ayuda a generar otras partículas, que a su vez la generan.

Clark Glymour ha sugerido que las hipótesis científicas a veces obtienen apoyo basado en la evidencia a través del proceso de "arranque", en el que una parte de una teoría se utiliza para respaldar otra. El principio de Newton contiene numerosos ejemplos de bootstrapping. Newton demostró, por ejemplo, que los datos sobre el movimiento de los satélites de Júpiter respaldan la hipótesis de la atracción gravitacional universal. Lo hizo demostrando que los datos sobre las órbitas de las lunas, junto con el primer y segundo axiomas de movimiento, sugieren la existencia de una fuerza 1/R 2 entre el planeta y cada uno de sus satélites.

Glymour insistió en que Newton recibió así la confirmación, aunque utilizó una parte de su teoría (por ejemplo, F = ma) para apoyar la segunda parte de la teoría (atracción gravitatoria universal). Glymur afirmó que

la idea básica es que las hipótesis se confirman con respecto a una teoría mediante una prueba, siempre que al usar la teoría podamos deducir de la prueba un ejemplo de la hipótesis, y la deducción es tal que no garantiza que obtendríamos una ejemplo de la hipótesis no importa qué evidencia podría ser [6] .

En el ejemplo anterior, se logró el arranque porque las otras correlaciones de fuerza y ​​distancia son consistentes con la conexión del primer y segundo axioma.

En otra aplicación, Newton argumentó que la misma fuerza que acelera los cuerpos liberados cerca de la superficie de la Tierra también mantiene a la Luna en su órbita. Las premisas de este argumento incluyen el primer y segundo axioma del movimiento, así como datos sobre la caída de cuerpos, la órbita de la Luna y la distancia entre la Tierra y la Luna. Nuevamente, Newton usó una parte de su teoría para apoyar otra parte de la teoría.

Glymur no afirmó que todos los casos de apoyo basado en evidencia se ajusten al modelo de arranque. Sin embargo, parece claro que algunos episodios históricos importantes se ajustan a este patrón.

El bootstrapping se logra infiriendo una instancia de una hipótesis a partir de la evidencia, sujeto a ciertas restricciones. En la medida en que el modelo bootstrap acepta la confirmación como una relación lógica entre oraciones, está en la tradición de la reconstrucción lógica.

La posición lógica sobre la confirmación fue expresada sucintamente por Hempel en 1966:

desde un punto de vista lógico, el apoyo que recibe una hipótesis de un conjunto dado de datos debería depender solo de lo que afirma y cuáles son los datos [7] .

Desde este punto de vista, la conexión temporal entre la hipótesis y la prueba es irrelevante. Sin embargo, esta relación temporal tiene implicaciones para las teorías de confirmación histórica.

La opinión de Lakatos sobre la evidencia comparativa

Goodman demostró que los ejemplos conocidos antes de que se formulara la hipótesis (por ejemplo, "todas las esmeraldas son azules (grue)") pueden no respaldar esta hipótesis. Imre Lakatos se comprometió a indicar las condiciones bajo las cuales la "vieja evidencia", eo , apoya la hipótesis H. esto es así, concluyó, siempre que se cumplan dos condiciones:

1. H implica e o , y

2. hay una hipótesis de piedra de toque en competencia H t tal que

( a ) H t implica ∼ e o , o

( b ) H t no implica ni e o ni ∼ e o .11

La hipótesis de la piedra de toque es un competidor serio en este campo, un competidor que cuenta con el apoyo de científicos en ejercicio.

La aplicación del criterio de Lakatos requiere una investigación histórica. El filósofo de la ciencia debe examinar este escenario para ver si hay hipótesis alternativas que no requieran evidencia. Los datos antiguos brindan apoyo solo en el contexto de competencia entre hipótesis.

Por lo tanto, Lakatos argumentaría que la teoría de la combustión del oxígeno de Lavoisier está respaldada por datos previos de relación de peso. Antes de que Lavoisier formulara la teoría del oxígeno, hubo varios estudios sobre el peso ganado por los metales en la combustión (por ejemplo, Boyle (1673), Lemery (1675), Freund (1709) y Guyton de Morveau (1770-1772). Esta prueba preliminar Lavoisier lo conocía. Sin embargo, los datos de la relación de peso respaldan la teoría del oxígeno, ya que estos datos no son consistentes con la teoría rival del flogisto.

Evaluación de la teoría

Thomas Kuhn escribe que "en la medida en que un investigador se dedica a la ciencia normal, resuelve acertijos y no verifica paradigmas" [8]  : el papel de la actividad del científico no es probar modelos teóricos, sino obtener un resultado confiable. .

Thomas Kuhn propuso evaluar las teorías científicas utilizando criterios de aceptación, que incluyen:

1. consistencia

2. acuerdo con los comentarios

3. sencillez

4. amplitud de la cobertura

5. integración conceptual

6. Productividad [9] .

Kuhn presentó estos criterios como pautas prescriptivas. Pero argumentó, además, que estos criterios eran realmente utilizados por los científicos para evaluar la idoneidad de las teorías.

La consistencia, el primer criterio de aceptabilidad, es una condición necesaria para la validez cognitiva. Si una teoría tiene postulados mutuamente incompatibles, entonces implica cualquier afirmación (y la negación de esta afirmación). Una teoría que implica tanto S como no S no brinda apoyo a ninguna de las dos.

Es importante entender que estamos hablando de consistencia teórica intraempresarial. Los científicos no requieren que una nueva teoría sea consistente con otras teorías establecidas para ser aceptable. Por ejemplo, la teoría especial de la relatividad, de acuerdo con la teoría del flogisto [10] , el proceso de tostado de metal en el marco de la teoría del flogisto se puede mostrar mediante la siguiente similitud de la ecuación química:

Metal = Escoria + Flogisto

Para obtener metal a partir de escamas (o de minerales), según la teoría, se puede usar cualquier cuerpo rico en flogisto (es decir, que se quema sin dejar residuos): carbón vegetal o carbón, grasa, aceite vegetal, etc.:

Escala + Cuerpo rico en flogisto = Metal

Algunos teóricos del flogisto han establecido coherencia entre su teoría y los datos, argumentando que el flogisto liberado durante la combustión tiene un "peso negativo". La teoría es incompatible con la mecánica newtoniana, que, a su vez, es incompatible con la teoría de la caída de cuerpos de Galileo. Sin embargo, la transición de la teoría de Galileo a la teoría de Newton ya la teoría de Einstein es progresiva. El progreso científico a menudo se logra mediante la introducción de una teoría que es inconsistente con las teorías aceptadas de la época.

El criterio de "coherencia con las observaciones" es vago y los científicos pueden estar en desacuerdo sobre su aplicación. La observación informa que un científico acepta las consecuencias deductivas de la teoría como un acuerdo, el segundo científico puede juzgar que no se acerca lo suficiente a lo que requiere la teoría.

El criterio de "simplicidad" también es vago. Además, no siempre es obvio lo que se requiere de la "simplicidad". La ecuación y = mx + b es más simple que la ecuación y = ax 2 + bx con respecto al grado de la variable independiente. Pero, ¿ y = ax 2 + bx es más o menos primo que y = xz + b ? Depende de lo que importa: el poder de la variable independiente o el número de variables.

Kuhn llamó la atención sobre una dificultad adicional. Ciertos criterios "... cuando se invocan simultáneamente... han demostrado repetidamente la inevitabilidad del conflicto entre estos criterios". [9]

Considere un conjunto de informes de observación sobre la relación entre las propiedades A y B. La teoría de que los puntos de datos están conectados por líneas rectas maximiza la concordancia con las observaciones. Sin embargo, una teoría que implica que A ∝1/ B probablemente sería más simple, incluso si ningún punto de datos cae exactamente en esa curva.

La aplicación del criterio de "amplitud" brindó un apoyo importante a la mecánica newtoniana en los siglos XVIII y XIX. Dados los axiomas y reglas de correspondencia de la teoría de Newton, se podría explicar el movimiento de los planetas, las mareas, la precesión de los equinoccios, el movimiento de los péndulos, el movimiento armónico simple, la acción capilar y muchos otros fenómenos. En gran parte debido a su amplio alcance, la mecánica newtoniana durante este período obtuvo una aceptación casi universal entre los científicos. La teoría electromagnética de la luz también ha recibido un apoyo importante de la aplicación del criterio de amplitud. La teoría electromagnética explicó con éxito tanto los fenómenos explicados por la teoría corpuscular como los fenómenos explicados por la teoría ondulatoria.

La "integración conceptual" se logra cuando se demuestra que las relaciones que se han aceptado como "solo hechos" se derivan de las disposiciones principales de la teoría. Copérnico, por ejemplo, citó el logro de la integración conceptual como una ventaja importante de su teoría heliostática del sistema solar. Antes de que Copérnico formulara su teoría, los movimientos retrógrados de los planetas eran "meros hechos". Copérnico señaló que su teoría requería que Júpiter retrocediera con más frecuencia que Marte, y que el grado de retrógrado fuera mayor para Marte que para Júpiter. Así, convirtió los "meros hechos" en "hechos requeridos por la teoría".

La productividad es un criterio de aceptación importante para las teorías científicas. Hernan McMullin identificó dos tipos de productividad [11] .[Puede examinar el historial de una teoría para establecer su "productividad comprobada". Una teoría ha "demostrado ser productiva" si su aplicación permite un acercamiento creativo a los nuevos desarrollos. Tal teoría explica una creciente colección de informes de observación, supera a otras teorías y demuestra ser eficaz para resolver anomalías. "Rendimiento probado" es una adaptación exitosa. Una teoría aceptable, como una especie exitosa, ha logrado la adaptación dentro de su "nicho ecológico". Si una teoría en particular ha mostrado "productividad comprobada" o no, solo puede determinarse mediante la investigación histórica. Sería difícil cuantificar la "productividad probada" de la teoría. Sin embargo, la evaluación de una teoría debe tener en cuenta la estabilidad de la teoría, o la falta de ella.

Es aún más difícil evaluar la "productividad potencial" de la teoría. La "fecundidad potencial" de una teoría, como la adaptabilidad de una especie, es la capacidad de responder creativamente a las presiones futuras. Puede considerarse que la "productividad probada" de una teoría es una medida de su "productividad potencial". Sin embargo, tales juicios son muy arriesgados. Siempre es posible que una teoría -como una especie- haya agotado su "fecundidad potencial" en el proceso de dar cabida a un conjunto existente de presiones.

Una teoría puede satisfacer el criterio de "productividad" de dos maneras. La primera forma es "señalar" las modificaciones de uno mismo. Estrictamente hablando, es el desarrollo de teorías lo que es "productivo" en este sentido. Pero una teoría original puede llamarse "productiva" si los científicos que la aplicaron se vieron obligados a modificarla de tal manera que aumentara su precisión o ampliara su alcance. Por ejemplo, la teoría del átomo de hidrógeno de Bohr puede considerarse "productiva", ya que la adición de órbitas elípticas de Sommerfeld fue una extensión natural y exitosa de esta teoría.

La segunda forma en que una teoría puede mostrar la fertilidad es mediante su aplicación exitosa a un nuevo tipo de fenómeno. John Herschel propuso el concepto de "volumen no intencionado" como criterio de aceptación de las teorías científicas. Pero no especificó cómo determinar si la aplicación de una teoría cuenta como una extensión a un nuevo tipo de fenómenos. En el caso de la velocidad del sonido discutida por Herschel, se podría argumentar que la teoría de la propagación del calor de Laplace se aplica al sonido todo el tiempo. Laplace simplemente reconoció que el movimiento del sonido está asociado con la compresión de un medio elástico y que esta compresión genera calor [12] . El hecho de que él fuera el primero en darse cuenta de esto, y que sus colegas científicos encontraran este reconocimiento "inesperado" o "sorprendente", no significa que su teoría se extendiera a un nuevo tipo de fenómenos. Una teoría significa lo que significa, independientemente de quién la reconozca y cuándo. Entonces parecería que las disputas sobre el alcance suscrito solo pueden resolverse determinando qué tan inesperada o sorprendente parece ser la aplicación.

Puntos de vista de otros filósofos

Sin duda, los pensadores que impulsaron no solo un estudio teórico de los problemas y cuestiones científicas, sino una nueva metodología de la ciencia, y uno de los divulgadores del nuevo método científico fue René Descartes, quien formuló su primera regla del método de la siguiente manera:

Nunca des por sentado nada de lo que obviamente no estés seguro; en otras palabras, evitar cuidadosamente las prisas y los prejuicios, e incluir en mis juicios sólo lo que a mi mente me parece tan claro y distinto que de ninguna manera pueda dar lugar a duda [13] .

Así, para eliminar el peligro, Galileo introduce el rozamiento y otras perturbaciones por medio de hipótesis ad hoc, considerándolos como factores determinados por una evidente discrepancia entre hechos y teoría, y no como eventos físicos explicados por la teoría del rozamiento, para los cuales nuevos y algún día podrían aparecer otros independientes confirmación (tal teoría apareció mucho más tarde, en el siglo XVIII). Sin embargo, la correspondencia entre la nueva dinámica y la doctrina del movimiento de la Tierra, que Galileo fortalece aún más con su método de anamnesis, hace que ambos conceptos sean más convincentes [14] . Por supuesto, en el mundo moderno, podemos estar de acuerdo o refutar muchas teorías de esa época, porque el criterio principal para la naturaleza científica del conocimiento de hoy es fácil de cumplir debido al progreso tecnológico: la evidencia y la validez racional de las declaraciones, que no pudieron siempre se puede verificar en la época de Galileo, ahora se puede verificar durante el experimento.

La fe ha sido la otra cara de la moneda para los científicos a lo largo de los siglos. Bertrand Russell captó bien el concepto de observación en su modelo de la tetera de Russell, que pretendía mostrar lo absurdo de la creencia religiosa en Dios. Lo describió en su artículo ilustrado de 1952 titulado "¿Existe Dios?" En el artículo "¿Existe Dios?" Bertrand Russell da la siguiente analogía:

“Muchos creyentes se comportan como si no correspondiera a los dogmáticos probar postulados generalmente aceptados, sino, por el contrario, a los escépticos refutarlos . Este definitivamente no es el caso. Si tuviera que afirmar que una tetera de porcelana gira alrededor del Sol en una órbita elíptica entre la Tierra y Marte, nadie podría refutar mi afirmación, añadiendo como precaución que la tetera es demasiado pequeña para detectarla incluso con los telescopios más potentes. Pero si dijera además que, dado que mi afirmación no puede ser refutada, una persona razonable no tiene derecho a dudar de su verdad, entonces se me diría con razón que estoy diciendo tonterías. Sin embargo, si la existencia de una tetera de este tipo se confirmara en libros antiguos, su autenticidad se repitiera todos los domingos, y este pensamiento se inculcara en la cabeza de los escolares desde la infancia, entonces la incredulidad en su existencia parecería extraña, y un escéptico sería digno. de la atención de un psiquiatra en una época ilustrada, y antes - atención inquisidor". [quince]

Esta analogía lúdica contiene una idea importante, una fórmula relativa a los métodos del conocimiento científico: no los escépticos deben refutar los postulados generalmente aceptados, especialmente si existen razones serias para dudar de la validez de estos postulados, sino que, por el contrario, los dogmáticos deben probarlos. Una teoría o hipótesis no puede tomarse en serio si al menos no existe la posibilidad de su confirmación, ya que una teoría desnuda excluye la posibilidad de revelar una teoría prometedora. Idealmente, cualquier empresa científica debería tener una oportunidad de confirmación científica, y desde el principio debería luchar por ella, y la existencia de Dios, según Russell, no es lo que refleja en su metáfora de la tetera.

El artículo, por ciertas razones, no se publicó en la revista, pero se incluyó en las obras completas de B. Russell, y el concepto de la tetera de Russell se convirtió en un concepto filosófico bastante popular.

Literatura

  1. Hempel K. La lógica de la explicación. M, 1998.
  2. Descartes R. Razonamiento sobre el método. René Descartes. Obras en 2 tomos T. 1. M.: Pensamiento, 1989.
  3. Kuhn T. La estructura de las revoluciones científicas: Per. De inglés. T. Kuhn: Comp. V. Yu. Kuznetsov. M .: LLC "Editorial", 2003.
  4. Laplace PS Experiencia en la filosofía de la teoría de la probabilidad. Probabilidad y estadística matemática: enciclopedia. cap. edición Yu. V. Prokhorov. Moscú: Gran Enciclopedia Rusa, 1999.
  5. Feyerabend P. Contra el método. Teoría anarquista del conocimiento de Oerk. Paul Feyerabend: trad. De inglés. A. L. Nikiforova. M.: AST: AST MOSCÚ: GUARDIÁN, 2007.
  6. Figurovsky N. A. Ensayo sobre la historia general de la química. Desde la antigüedad hasta principios del siglo XIX. M.: Editorial "Nauka", 1969.
  7. Alan Franklin. La epistemología del experimento', en Gooding, Pinch y Schaffer (eds.). Los usos del experimento.
  8. Carlos Hempel. (1966). Filosofía de las Ciencias Naturales. Acantilados de Englewood. Nueva Jersey: Prentice Hall.
  9. Ernan McMullin. (1976). The Fertility of Theory and the Unit for Appraisal in Science en RS Cohen, PK Feyerabend y MW Wartofsky (eds.), Boston Studies in the Philosophy of Science , vol. 39. Dordrecht: Reidel.
  10. Glymour. (1980) Teoría y Evidencia. Estados Unidos: Prensa de la Universidad de Princeton. 110-175 págs.
  11. Joyce, J., 2019, "Teorema de Bayes", en EN Zalta (ed.), The Stanford Encyclopedia of Philosophy (Edición de primavera de 2019)
  12. Nicod, J., 1924, Le problème logique de l'induction , París: Alcan. (Trad. inglesa "The Logical Problem of Induction", en Foundations of Geometry and Induction , Londres: Routledge, 2000.)
  13. Thomas S. (1977) Kuhn, La tensión esencial. Chicago: Prensa de la Universidad de Chicago.
  14. Reichenbach H. (1949) La teoría de la probabilidad. Los Ángeles: Berkeley.
  15. Russell, B. "¿Existe un Dios?" (1952), en The Collected Papers of Bertrand Russell, Volumen 11: Last Philosophical Testament, 1943-68, ed. John G. Slater y Peter Köllner (Londres: Routledge, 1997)

Notas

  1. Nicod, J., 1924, Le problème logique de l'induction , París: Alcan. (Trad. inglesa "El problema lógico de la inducción", en Fundamentos de geometría e inducción , Londres: Routledge, 2000.), 219 p.
  2. Gempel K. La lógica de la explicación. M., 1998, pág. 73
  3. Joyce, J., 2019, "Teorema de Bayes", en EN Zalta (ed.), The Stanford Encyclopedia of Philosophy (edición de primavera de 2019)
  4. Reichenbach H. (1949) La teoría de la probabilidad. Los Ángeles: Berkeley. 38 págs.
  5. Alan Franklin. La epistemología del experimento', en Gooding, Pinch y Schaffer (eds.). Los usos del experimento. 437-459 págs.
  6. Glymour. (1980) Teoría y Evidencia. Estados Unidos: Prensa de la Universidad de Princeton. 110-175 págs.
  7. Carl Hempel. (1966). Filosofía de las Ciencias Naturales. Acantilados de Englewood. Nueva Jersey: Prentice-Hall, 38.
  8. Thomas Kuhn. La estructura de las revoluciones científicas: Per. De inglés. T. Kuhn; compensación V. Yu. Kuznetsov. M.: AST Publishing House LLC, 2003. C. 188
  9. 1 2 Thomas S. (1977) Kuhn, La tensión esencial. Chicago: Prensa de la Universidad de Chicago. 321-322 págs.
  10. N. A. Figurovsky. Ensayo sobre la historia general de la química. Desde la antigüedad hasta principios del siglo XIX. M.: Editorial "Nauka", 1969.
  11. Ernan McMullin, 'The Fertility of Theory and the Unit for Appraisal in Science' en RS Cohen, PK Feyerabend y MW Wartofsky (eds.), Boston Studies in the Philosophy of Science , vol. 39 (Dordrecht: Reidel, 1976), 400-424.
  12. Laplace P. S. Experiencia de la filosofía de la teoría de la probabilidad // Probabilidad y estadística matemática: Enciclopedia / Cap. edición Yu. V. Prokhorov. - M. : Gran Enciclopedia Rusa, 1999. - S. 834-869.
  13. Descartes R. Razonamiento sobre el método. René Descartes. Obras en 2 tomos.T. 1. M.: Pensamiento, 1989. S. 296
  14. Feyerabend P. Contra el método. Ensayo sobre la teoría anarquista del conocimiento. Paul Feyerabend; por. De inglés. A. L. Nikiforova. - M .: AST: AST MOSCÚ: GUARDIAN, 2007. S. 144.
  15. Russell, B. "¿Existe un Dios?" (1952), en The Collected Papers of Bertrand Russell, Volumen 11: Last Philosophical Testament, 1943-68, ed. John G. Slater y Peter Köllner (Londres: Routledge, 1997), págs. 543-48.