#기울기(W),y절편값(b) 초기 입력 W = tf.Variable(tf.random_normal([1]), name="weight") b = tf.Variable(tf.random_normal([1]),name='bias') #hypothesis 식 hypothesis = W*x_data + b #cost cost= tf.reduce_mean(tf.square(hypothesis -y_data)) #Minimize optimizer=tf.train.GradientDescentOptimizer(learning_rate=0.00008) train=optimizer.minimize(cost) #Launch Session sess= tf.Session()
#Initialize global variables in the graph sess.run(tf.global_variables_initializer()) for step in range(2000000): sess.run(train) if step %1000==0: print(step, "Cost", sess.run(cost), "W",sess.run(W),"b",sess.run(b))
comment
경사 하강법에 대해 쉽게 이해하였습니다!
가장 처음에 초기값을 2.9, 0.5로 잡는 근거는 무엇인가요??
초기값을 처음에 잘 설정하고 들어가는 것이 중요해보여서요..!
리니어까진 일단 쉽네용 좋아요
설명 감사드립니다
재밌습니다!
with tf.GradientTape() as tape
에서 데이터 값이 tape 값인 것 같은데 실제 데이터 세트는 1,2,3,4,5 밖에 없는데 어떤식으로 100번을 돌릴 수가 있는지 궁금합니다
1,2,3,4,5를 가지고 어떻게 100개의 데이터세트를 만들어서 학습시키는 건가요?
with tf.GradientTape() as tape:
hypothesis = W * x_data + b
cost = tf.reduce_mean(tf.square(hypothesis - y_data))
W_grad, b_grad = tape.gradient(cost, [W, b]) #경사도의 값 (미분값)
W_grad.numpy(), b_grad.numpy()
여기에서 결과 값이 왜? 아래와 같이 나오는지 잘 이해가 안가네요
정말 머리에 쏙쏙 들어옵니다. 좋은 강의 감사합니다!
깔끔한 설명 감사드립니다.
차원이 줄었다는게 무슨말인가요..? 2.5가 왜 줄어든거예요? 어떤파트를 공부하고 와야할지 가르쳐주십시오 ㅜㅜ
유용한 강의 정말 감사드립니다.
hypothesis는 하이포테시스 입니다.
왜 잔차식이 코스트함수인가요?,,, 통계적부분에서는 cost 함수라 부르지않는거같은데,,
비공개 글입니다.
tf.enable_eager_execution() 에 관하여 오류나시는 분들은 그거 지우셔도 프로그램에는 무방합니다...
제가 해봣는데 되더라구요 참고하십쇼!
실습을 어떻게 하는 건지 어디에 나와있는 거죠..?
이전 버전에서는 설명이 있었던 것 같은데, 여긴 없는 듯해서 저는 다음 참조 싸이트 보고 그대로 따라했습니다.
https://tensorflow.blog/%EC%9C%88%EB%8F%84%EC%9A%B0%EC%A6%88%EC%97%90-%EC%95%84%EB%82%98%EC%BD%98%EB%8B%A4-%ED%85%90%EC%84%9C%ED%94%8C%EB%A1%9C%EC%9A%B0-%EC%84%A4%EC%B9%98%ED%95%98%EA%B8%B0/
[Window10 기준 - anaconda3 - jupyter notebook - tensorflow 설치]
하트가 사라져간다...
tensorflow 2.0에 맞게 수정해서 강의해주시면 좋을것 같아요 ㅠ
import tensorflow as tf
#입력 데이터
x_data = [11, 19, 23,26,29,30,38]
y_data = [29, 33, 51,40,49,50,69]
#placeholders
X= tf.placeholder(tf.float32)
Y= tf.placeholder(tf.float32)
#기울기(W),y절편값(b) 초기 입력
W = tf.Variable(tf.random_normal([1]), name="weight")
b = tf.Variable(tf.random_normal([1]),name='bias')
#hypothesis 식
hypothesis = W*x_data + b
#cost
cost= tf.reduce_mean(tf.square(hypothesis -y_data))
#Minimize
optimizer=tf.train.GradientDescentOptimizer(learning_rate=0.00008)
train=optimizer.minimize(cost)
#Launch Session
sess= tf.Session()
#Initialize global variables in the graph
sess.run(tf.global_variables_initializer())
for step in range(2000000):
sess.run(train)
if step %1000==0:
print(step, "Cost", sess.run(cost), "W",sess.run(W),"b",sess.run(b))
"tf.enable_eager_execution must be called at program startup.")
AttributeError: 'RefVariable' object has no attribute '_id'