javascript - Math.min/max.apply set values as percent of new range -
मेरे पास मानों की एक सरणी सूची है
var v = [0.009865,0.009866,0.009309 , 0.009831,0.009919,0.009965,0.009806,0.009509,0.009731,0.009888];
मैं सीमा को बनाने के लिए न्यूनतम, अधिकतम और दोनों के बीच अंतर की गणना करता हूं
var max = Math.max.apply (यह, v) / 100; Var min = Math.min.apply (यह, वी) / 100; Var dif = अधिकतम-मिनट; console.dir ({ 'अधिकतम': अधिकतम, 'मिनट': मिनट, 'dif': dif});
कंसोल डैर शो
अधिकतम: 0.00009965 मिनट: 0.00009308999999999999 वि: 0.000006560000000000005
तब मैं लूप के माध्यम से
(सीमा के भीतर इन्हें प्रतिशत में परिवर्तित करने का प्रयास प्रत्येक मान, न्यूनतम मूल्य से कितना बड़ा है, अलग-अलग जवाब देकर 100 से परिणाम गुणा करना (वी (i) - i) के लिए
(var i = 0; i & lt; v.length; i ++) {v [i] = ((v [i] -min) / dif) * 100; console.log (V [i]); }
console.log उन मूल्यों को दिखाता है जो वास्तव में मुझे देखने की अपेक्षा नहीं रखते हैं (0-100 के बीच की उम्मीद)
148962.04268292672 148977.28658536574 140486.43292682915 148443.74999999985 149785.21341463405 150486.43292682915 148062.65243902427 143535.21341463405 146919.35975609746 149312.65243902427
मैं क्या कर रहा हूं?
गणित के लिए मेरा संदर्भ:
var max = Math.max.apply (यह, वी); Var min = Math.min.apply (यह, वी);
आउटपुट:
84.7560 97560 9 757 84.90853658536585 0 79.57317073170726 92.9878048780489 100 75.76219512195132 30.487804878048845 64.32926829268297 88.26219512195112
Comments
Post a Comment